Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia kündigt „CUDA x86“ an
- Ersteller MichaG
- Erstellt am
- Zur News: Nvidia kündigt „CUDA x86“ an
Blutschlumpf
Fleet Admiral
- Registriert
- März 2001
- Beiträge
- 20.625
Warum soll man auf ner CPU ne Software benutzen die erst umständlich auf ne GPU optimiert wurde ?
Wenn ich ein Programm schreiben wollte welches überall läuft, dann kann ichs auch direkt für ne CPU schreiben.
Naja, wers braucht.
Ich hatte bei der Überschrift gehofft, dass die was gebaut haben, dass man x86 auf ner GPU ausführen (oder zumindest bestimmte Funktionen beschleunigen) kann ohne erst alles in CUDA/OpenCL neu programmieren zu müssen.
Wenn ich ein Programm schreiben wollte welches überall läuft, dann kann ichs auch direkt für ne CPU schreiben.
Naja, wers braucht.
Ich hatte bei der Überschrift gehofft, dass die was gebaut haben, dass man x86 auf ner GPU ausführen (oder zumindest bestimmte Funktionen beschleunigen) kann ohne erst alles in CUDA/OpenCL neu programmieren zu müssen.
Euphoria
Admiral
- Registriert
- Apr. 2007
- Beiträge
- 9.245
Naja Havok hat deutlich mehr Titel als man denkt.
Immerhin gibt es das ganze nicht erst seit 1-2 Jahren.
HL² (Source Engine allgemein), CoH, AC, Bioshock, Splinter Cell, Prince of Persia, Micro Machines, Far Cry 2, Battlefield und die Liste ist ewig lang. (mit guten Titeln, nicht mit 0815)
Es wird nur nicht so angepriesen, wie PhysX. Und bei einigen der oben genannten Titel gibt es sehr schöne Physikeffekte die sich vor PhysX nicht verstecken müssen. Dabei ist Havok nicht annähernd so hardwarefressend wie PhysX.
PS: Auch wenn Havok Intel gehört, wird es dennoch in enger Zusammenarbeit mit AMD usw. entwickelt.
Ich bin mir fast sicher, dass Havok mit etwas mehr Marketing PhysX vom Markt drängen könnte. Hat nicht weniger Effekte, dafür läuft es auf praktisch jedem Rechner.
Aber nungut ist wahrscheinlich zu viel OT.
Immerhin gibt es das ganze nicht erst seit 1-2 Jahren.
HL² (Source Engine allgemein), CoH, AC, Bioshock, Splinter Cell, Prince of Persia, Micro Machines, Far Cry 2, Battlefield und die Liste ist ewig lang. (mit guten Titeln, nicht mit 0815)
Es wird nur nicht so angepriesen, wie PhysX. Und bei einigen der oben genannten Titel gibt es sehr schöne Physikeffekte die sich vor PhysX nicht verstecken müssen. Dabei ist Havok nicht annähernd so hardwarefressend wie PhysX.
PS: Auch wenn Havok Intel gehört, wird es dennoch in enger Zusammenarbeit mit AMD usw. entwickelt.
Ich bin mir fast sicher, dass Havok mit etwas mehr Marketing PhysX vom Markt drängen könnte. Hat nicht weniger Effekte, dafür läuft es auf praktisch jedem Rechner.
Aber nungut ist wahrscheinlich zu viel OT.
Zuletzt bearbeitet:
Floletni schrieb:Seit wann gibt es x64?
Du bringt hier ziemlich was durcheinander. Es gibt 32bit und 64bit (16bit und kleiner erwähne ich jetzt mal nicht). Und das alles zusammen ist x86 einfach gesagt.
Jetzt wirds gruselig oder war es grauselig
S
Swissjustme
Gast
x64 = x86-64bit
Bei OpenCL ist dies schon jetzt möglich, da musste Nvidia wohl oder übel nachziehen.
Bei OpenCL ist dies schon jetzt möglich, da musste Nvidia wohl oder übel nachziehen.
Zuletzt bearbeitet:
Hallo,
dann kann Cuda ja bald das, was AMD's Stream SDK schon kann...der bietet bereits x86 Support.
Wieso Cuda so toll sein soll, erschließt sich mir immer noch nicht. Die meisten Anwendungen, die Cuda und Stream unterstützen, laufen auf Stream schneller. Einzig Folding@Home ist auf Cuda klar schneller, was aber auch daran liegen könnte, dass Stanford als "Cuda Center" ein paar Forschungsgelder von NV bekommt. Die anderen GPGPU-DC Programme laufen auf Stream schneller (z.B. Collatz oder Milkyway), ebenso scheint z.b. MediaShow Espresso auf Stream schneller zu sein (siehe hier, wo ein 785G die eigentlich klar schnellere GF9300 IGP schlägt). Insofern scheint Cuda hauptsächlich im Marketing Vorteile zu haben.
Statt OCL vernünftig zu pushen, versucht NV wieder den nicht gerade kundenfreundlichen Eigenbrötler-Weg, aber das kennt man ja (z.b. von GPU-Physx, welches vom Treiber deaktiviert wird, wenn eine ATI Karte verbaut ist).
dann kann Cuda ja bald das, was AMD's Stream SDK schon kann...der bietet bereits x86 Support.
Wieso Cuda so toll sein soll, erschließt sich mir immer noch nicht. Die meisten Anwendungen, die Cuda und Stream unterstützen, laufen auf Stream schneller. Einzig Folding@Home ist auf Cuda klar schneller, was aber auch daran liegen könnte, dass Stanford als "Cuda Center" ein paar Forschungsgelder von NV bekommt. Die anderen GPGPU-DC Programme laufen auf Stream schneller (z.B. Collatz oder Milkyway), ebenso scheint z.b. MediaShow Espresso auf Stream schneller zu sein (siehe hier, wo ein 785G die eigentlich klar schnellere GF9300 IGP schlägt). Insofern scheint Cuda hauptsächlich im Marketing Vorteile zu haben.
Statt OCL vernünftig zu pushen, versucht NV wieder den nicht gerade kundenfreundlichen Eigenbrötler-Weg, aber das kennt man ja (z.b. von GPU-Physx, welches vom Treiber deaktiviert wird, wenn eine ATI Karte verbaut ist).
F
Fuzi0n
Gast
Wieso kann Nvidia CUDA nicht sterben lassen? Es gibt doch schon OpenCL! Nvidia versucht aber trotzdem und mit aller Gewalt seine eigenen Standards in den Markt zu pumpen und merken nicht mal, dass sie langfristig scheitern werden, weil der Markt auf offene Standards setzen möchte. Sie sollten doch die Entwicklungskapzitäten sinngemäßer einsetzen, aber Nvidia besteht darauf Geld in die Wind zu p****n. 
FreddyMercury
Rear Admiral
- Registriert
- Dez. 2002
- Beiträge
- 5.414
Wieso sollte nVidia CUDA fallen lassen? nvidias OpenCL basiert auf CUDA. AMD's OpenCL basiert auf Stream...
Ich bin doch immer wieder erstaunt an der Unwissenheit mancher User hier. Hauptsache posten, bevor sich schlau zu machen
Ich bin doch immer wieder erstaunt an der Unwissenheit mancher User hier. Hauptsache posten, bevor sich schlau zu machen
Zuletzt bearbeitet:
ednat
Ensign
- Registriert
- Apr. 2010
- Beiträge
- 158
würde nvidia cuda fallen lassen, würde ati mit stream an deren stelle treten, oh ne wartet ATI is ja der heilige samariter und würde das niemals machen 
und jetzt ratet mal warum sich opencl nicht durchsetzt obwohl es von beiden seiten gleichermaßen unterstützt und gepflegt wird? stichwort: performance, dokumentation, verbreitung (kam einfach zu spät)
schöne paranoia noch,
ednat
und jetzt ratet mal warum sich opencl nicht durchsetzt obwohl es von beiden seiten gleichermaßen unterstützt und gepflegt wird? stichwort: performance, dokumentation, verbreitung (kam einfach zu spät)
schöne paranoia noch,
ednat
F
Fuzi0n
Gast
Vielleicht hätte ich es gleich erwähnen sollen, damit das wirklich alle verstehen: Cuda, Stream und OpenCL sind Schnittstellen (API). Cuda ist nur für Nvidia-Karten, Stream nur für AMD-Karten und OpenCL für AMD, Nvidia usw. Grafikkarten inkl. X86 Unterstützung. Was Nvidia jetzt machen möchte ist die PROPRIETÄRE Cuda-Schnittstelle X86-fähig zu machen. Mit X86 Unterstützung wäre Cuda mit OpenCL vergleichbar, eine optimale Ausnutzung von GPU und CPU wäre möglich, jedoch NUR wenn eine Nvidia Grafikkarte im Rechner steckt. durch diesen Schritt möchte Nvidia AMD ausschließen oder auch evtl. Lizenzgebühren verlagen, wenn CUDA zum Standard werden könnte.
Ich vermute mal, dass Nvidia diesen Schritt einleitet, weil sie den GPGPU Markt dominieren möchten und versuchen wahrscheinlich deshalb in diesem Bereich CUDA als Standard zu etablieren.
Siehe Oben.
AMD treibt OpenCL an und Stream weniger. AMD wird also mittelfristig Stream zugunsten von OpenCL kippen.
OpenCL ist halt noch sehr jung. Adobe z.B. unterstützt OpenCL, mit Sicherheit kommt also CS6 mit OpenCL Unterstützung. Außerdem bietet bereits Roxio OpenCL-fähige Programme an. Wie kommst du darauf, dass sich OpenCL nicht durchsetzen wird?
Cuda wurde also nie für den Privatanwender entwickelt, wurde aber dann doch für den Privatanwender weiterentwickelt? Ich glaube ich habe dich verstanden...
Okay, also du meinst nur ATI-Fanboys sind gegen CUDA. Alle Anderen möchten jedoch, dass sich CUDA durchsetzt und zum Standard wird, damit eine GPU-Beschleuningung auf AMD Grafikkarten nicht möglich ist? Ich glaube ich habe dich auch hier verstanden.
Ich vermute mal, dass Nvidia diesen Schritt einleitet, weil sie den GPGPU Markt dominieren möchten und versuchen wahrscheinlich deshalb in diesem Bereich CUDA als Standard zu etablieren.
Nein.FreddyMercury schrieb:nvidias OpenCL basiert auf CUDA.
Nein.FreddyMercury schrieb:AMD's OpenCL basiert auf Stream...
FreddyMercury schrieb:Ich bin doch immer wieder erstaunt an der Unwissenheit mancher User hier. Hauptsache posten, bevor sich schlau zu machen![]()
Siehe Oben.
ednat schrieb:würde nvidia cuda fallen lassen, würde ati mit stream an deren stelle treten, oh ne wartet ATI is ja der heilige samariter und würde das niemals machen![]()
AMD treibt OpenCL an und Stream weniger. AMD wird also mittelfristig Stream zugunsten von OpenCL kippen.
ednat schrieb:und jetzt ratet mal warum sich opencl nicht durchsetzt
OpenCL ist halt noch sehr jung. Adobe z.B. unterstützt OpenCL, mit Sicherheit kommt also CS6 mit OpenCL Unterstützung. Außerdem bietet bereits Roxio OpenCL-fähige Programme an. Wie kommst du darauf, dass sich OpenCL nicht durchsetzen wird?
Angeblich behandelt Nvidia OpenCL sehr stiefmütterlich. Verbuggt, langsam usw... "Es gibt ja schließlich CUDA!"ednat schrieb:obwohl es von beiden seiten gleichermaßen unterstützt und gepflegt wird?
Ergänzung ()
KillerGER87 schrieb:Deswegen noch mal für alle zum mitschreiben: CUDA wurde nie für den Privatanwender entwickelt sondern für Profi Kunden. Es wurde lediglich auch dem Privatanwender nutzbar gemacht.
Cuda wurde also nie für den Privatanwender entwickelt, wurde aber dann doch für den Privatanwender weiterentwickelt? Ich glaube ich habe dich verstanden...
KillerGER87 schrieb:Und eines Fällt hier immer ganz stark auf das so bald eine News über NV auftaucht die ATI/AMD Jünger aus ihren Ecken gekrochen kommen um wieder ihren Müll abzuladen und ihre Hasstiraten abzufeuern. Ich sag nur werdet Erwachsen.
Okay, also du meinst nur ATI-Fanboys sind gegen CUDA. Alle Anderen möchten jedoch, dass sich CUDA durchsetzt und zum Standard wird, damit eine GPU-Beschleuningung auf AMD Grafikkarten nicht möglich ist? Ich glaube ich habe dich auch hier verstanden.
Zuletzt bearbeitet:
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Urban-Legend, nenn mir mal eine Grafikkarte von NV die mit neuen Treiber langsamer geworden ist. Die 8800 zeigen hier doch wieder mal was Sache ist, die Karte werden immer schneller und schneller, teils durch schnellere CPUs, aber auch die vollen Treiberoptimierungen werden auf die alten GF8/9 Karten übertragen. Bei den GF9 Karten bremst zur Zeit enorm der nur 512MB große Vram, Tendenz steigend, aber wieder keine Treiberbremse...Alte Grafikkarten werden mit neueren Treibern auch immer leicht langsamer, damit man neue kaufen muss.
Und wenn du jetzt meinst das GF 6/7 so langsam sind wegen den Treibern -> falsch, Shader Krüppel und alte Architekturen ohne unified Shader sind daran schuld.
Wieso? Floletni hat doch völlig Recht.vander schrieb:Jetzt wirds gruselig oder war es grauselig
x86 war ursprünglich eine 16-bit ISA. Später kam eine 32-bit Erweiterung von Intel, x86-32 (80386, protected mode), und eine 64-bit Erweiterung von AMD, x86-64 (Athlon 64, long mode). Alles fasst man allgemein unter x86 zusammen. x64 gibt es im Grunde nicht. Es wird manchmal nur als Alias für x86-64 verwendet.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.688
Woher leitest du ab, das CPU-PhysX hardwarefressender ist bei identischer Physik-Berechnung? Dynamische Debris gibt's in keinem Havok-Titel. Und CPU-PhysX läuft ebenfalls auf jedem Rechner.Arhey schrieb:Dabei ist Havok nicht annähernd so hardwarefressend wie PhysX. [...] Hat nicht weniger Effekte, dafür läuft es auf praktisch jedem Rechner.
Kenny [CH] schrieb:Komplettzitat entfernt. Bitte Regeln beachten.
Hallo,
interessant...vor allem, da der aktuelle Stream SDK nur noch OpenCL unterstützt.
Die proprietäre Programmiersprache Brook+, die vor OpenCL von AMD verwendet wurde, wurde schon vor einer Weile eingestellt. Daher ist bei AMD aktuell Stream = OpenCL. Wenn sie OpenCL fallen lassen würden, hätten sie auch kein Stream mehr.
Stream ist etwas komplett anderes als OpenCL. OpenCL ist primär eine Programmiersprache, Stream ist ein SDK, der für die Entwicklung von OpenCL Programmen (oder x86 Programmen) genutzt werden kann.
Cuda kann man nicht direkt mit Stream vergleichen, weil Cuda gerne als Gesamtpaket aus SDK und Programmiersprache (eigentlich C for Cuda) angesehen wird.
@TurboTsunami:
Die Rechnung von OldboyX geht nicht auf. Aber die Aussage, dass Havoc häufiger verwendet wird als Physx kannst du damit auch nicht widerlegen, sondern hast das selbst bestätigt (296:198).
Zuletzt bearbeitet von einem Moderator:
F
Fuzi0n
Gast
Oberst08 schrieb:Hallo,
interessant...vor allem, da der aktuelle Stream SDK nur noch OpenCL unterstützt.
Die proprietäre Programmiersprache Brook+, die vor OpenCL von AMD verwendet wurde, wurde schon vor einer Weile eingestellt. Daher ist bei AMD aktuell Stream = OpenCL.
Aha, AMD hat Stream doch schon gekippt, das wusste ich noch nicht. Also das SDK heißt weiterhin Stream, bloß nur noch mit OpenCL und ohne Stream/Brook+ Schnittstelle. Gut zu wissen.
Jokener
Captain
- Registriert
- Nov. 2007
- Beiträge
- 3.594
Das Cuda drauf "optimiert" wurde langsam zu sein ist aber wirklich hinreichend bekannt.
Große Teile von Cuda basieren auf x87 (ja, x87 nicht x86).
Damit läuft der ganze Kram einfach nur ineffizient und verbrennt ohne Ende Rechenzeit.
(Aber sowohl auf der GPU wie auch auf der CPU.)
Das fällt aufgrund der verschiedenen herangehensweisen von CPU (seriell) und GPU (parallel) an die Berechnungen auf der GPU weniger stark ins Gewicht.
Wenn man den ganzen Müll in x86 nochmal schreibt (was sogar einfacher ist als etwas für x87 zu programmieren), dann wird es plötzlich auf der CPU deutlich schneller.
Das liegt daran, dass plötzlich auf der CPU bestimmte Sachen in einem statt mehreren Takten Bgearbeitete werden können.
Auf der GPU muss x86 auch immer emuliert werden, weshalb der Gewinn hier nicht so groß ist.
Und mit einer vorhanden x86-Basis ist der Schritt zu SSE auch nicht mehr weit, womit der Kram auf einer CPU deutlich schneller laufen würde als auf einer Grafikkarte.
(Larrabee, Knights Ferry oder ähnliches ausgenommen, die können nativ x86... Das sind aber keine wirklichen Grafikkarten oder zumindest nicht verbreitet.)
Kurzum: NVIDIA sollte mal jemanden an das Projekt setzen, der ein bisschen mehr Eier hat.
Innerhalb von einem Jahr könnte man aus einer grottigen Implementierung ein großartiges Projekt machen.
Nur würde es dann dummerweise auch auf anderen Plattformen funktionieren.
Und man will ja auf keinen Fall den Kunden was gutes tun oder in den Konsolenmarkt...
Oops... Touché...
Grüße vom:
Jokener
Große Teile von Cuda basieren auf x87 (ja, x87 nicht x86).
Damit läuft der ganze Kram einfach nur ineffizient und verbrennt ohne Ende Rechenzeit.
(Aber sowohl auf der GPU wie auch auf der CPU.)
Das fällt aufgrund der verschiedenen herangehensweisen von CPU (seriell) und GPU (parallel) an die Berechnungen auf der GPU weniger stark ins Gewicht.
Wenn man den ganzen Müll in x86 nochmal schreibt (was sogar einfacher ist als etwas für x87 zu programmieren), dann wird es plötzlich auf der CPU deutlich schneller.
Das liegt daran, dass plötzlich auf der CPU bestimmte Sachen in einem statt mehreren Takten Bgearbeitete werden können.
Auf der GPU muss x86 auch immer emuliert werden, weshalb der Gewinn hier nicht so groß ist.
Und mit einer vorhanden x86-Basis ist der Schritt zu SSE auch nicht mehr weit, womit der Kram auf einer CPU deutlich schneller laufen würde als auf einer Grafikkarte.
(Larrabee, Knights Ferry oder ähnliches ausgenommen, die können nativ x86... Das sind aber keine wirklichen Grafikkarten oder zumindest nicht verbreitet.)
Kurzum: NVIDIA sollte mal jemanden an das Projekt setzen, der ein bisschen mehr Eier hat.
Innerhalb von einem Jahr könnte man aus einer grottigen Implementierung ein großartiges Projekt machen.
Nur würde es dann dummerweise auch auf anderen Plattformen funktionieren.
Und man will ja auf keinen Fall den Kunden was gutes tun oder in den Konsolenmarkt...
Oops... Touché...
Grüße vom:
Jokener
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.688
Hast du für diese Aussage zu CUDA Quellen?Jokener schrieb:Das Cuda drauf "optimiert" wurde langsam zu sein ist aber wirklich hinreichend bekannt.
blackiwid schrieb:Da es mitlerweile schon Nativ für Linux Dx10 und DX11 gibt, [...]
Hab ich was verpasst?
Wenns so wäre, wäre Win7 sofort von der Platte...
ednat schrieb:würde nvidia cuda fallen lassen, würde ati mit stream an deren stelle treten, oh ne wartet ATI is ja der heilige samariter und würde das niemals machen![]()
AMD hat schon vor 1-2 Jahre umgedacht.
AMD ist sehr OpenSource denkend, puscht diese Dinge dann allerdings nicht so stark, vermutlich weil sich dann die Konkurrenten (die noch dabei sind bei anderen closed-Source Projekten Geld zu verbrennen und sich die Hörner abzustoßen) einfach ins gemachte Nest setzen könnten.
Siehe auch Optimus und AMDs Konkkurenz und zukünfitge Entwicklung.
AMDs Lösung geht überall, Optimus nur unter Windows.
Tja, AMD ist seltsamerweise so nicht drauf.Kenny [CH] schrieb:Mal ganz erhrlich! AMD und NV sind Firmen! Jede Firma versucht Geld zuverdiennen immer und überall! Wenn NV die CUDA umgebung einstellt, wird AMD eher OpenCL fallen lassen da sie mit ihrem Stream mehr geld verdienen können! Lizensgebühren ftw!
Stream wurde ziemlich schnell fallen gelassen, als OpenCL kam.
Bei Nvidia ist das das Programm, dass selbst abgekürtzt nen verdammt langen Namen hat und Cuda.
Das Programm mit dem langen Namen war immer darauf bedacht, dass bloß nicht 10.1 einzusetzen.
Noch dazu sollte DX11 eigentlich schon mit DX10 kommen, was aber von Nvidia wohl blockiert wurde, da die Geforce 8 kein Tesslation konnte.
"Holzgrafikkarte"
usw. usw.
the_mole
Cadet 4th Year
- Registriert
- Apr. 2007
- Beiträge
- 109
@blackiwid:
directx für linux? wär mir neu, ms hat das doch als teil windows entwickelt. kann mir auch nicht vorstellen, dass das bei linux rein technisch gehn würde, da ja diverse komponenten von windows fehlen.
off topic:
Oh!
directx für linux? wär mir neu, ms hat das doch als teil windows entwickelt. kann mir auch nicht vorstellen, dass das bei linux rein technisch gehn würde, da ja diverse komponenten von windows fehlen.
off topic:
FreddyMercury schrieb:Fuzi0n schrieb:
Doch.
Oh!