Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Harvard wird „CUDA Centre of Excellence“
- Ersteller Parwez
- Erstellt am
- Zur News: Harvard wird „CUDA Centre of Excellence“
Ein Komilitone von mir führt eine Studienarbeit mit CUDA durch. Sowas wäre für eine Vorlesung aber viel zu speziell. Wobei ich z.b. eine Vorlesung über MIMO hatte (siehe WLAN Draft N), die wird erst seit 2005 angeboten. Also es gibt an deutschen Universitäten durchaus aktuelle Studien- und Vorlesungsthemen.dcdead schrieb:Tja, an deutschen Unis kann man von solch aktuellen Lehrveranstaltungen meisten nur träumen...![]()
D
dllfreak2001
Gast
karamba schrieb:@dllfreak2001:
Naja, was sollten die Unis bis jetzt machen? OpenCL stand noch nicht zur Verfügung, CUDA hingegen schon. Und die Möglichkeit GPUs für Berechnungen zu nutzen ist sehr verlockend.
Wie es in Zukunft läuft, lässt sich schwer vorhersagen. Normalerweise müsste sich früher oder später die offene Schnittstelle, also OpenCL, durchsetzen. Allerdings entbindet dies die GPU Hersteller nicht davon, entsprechende Implementierungen bereit zu stellen. Und hier ist nVidia offensichtlich mit CUDA eifrig am basteln und hat dadurch auf diesem Gebiet einen nicht von der Hand zu weisenden Vorsprung, ob nun mit OpenCL oder ohne.
OpenCL gibt es schon nur fehlen noch die passenden Grafikkarten...
Wenn die ihre Forschungsprojekte mit Cuda berechnen ist das Ok, aber ein eigenes Fach für eine Technik die beim erscheinen von OpenCL und DX11 obsolet wird ist absoluter Stuß. Cuda ist wie Glide von 3dFx, letztenendes geht es doch unter mag es noch so gut und verbreitet sein.
Ich habe eine Geforce und mir hat dieser Cuda-Mist nicht einen Vorteil gebracht...
Die meiste Videobarabeitungssoftware mit Cuda-Support ist totaler Rotz, weil Cuda meist nur die Effekte berechnet... reiner Videoschnitt zieht keinen Nutzen aus dem Cuda-Support und spezielle PhysX-Spiele sind etweder schlecht gemacht (Cryostasis... Das Wasser sieht wie Mist aus) oder die
Physikeffekte sind unnötig oder könnten auch vereinfacht von der CPU berechnet werden (Sacred2, MirrorsEdge, UT3 läuft sogar langsamer mit aktiviertem PhysX auf den normalen Maps).
Zuletzt bearbeitet:
dllfreak2001 schrieb:OpenCL gibt es schon nur fehlen noch die passenden Grafikkarten...
Wo sage ich, dass es OpenCL noch nicht gibt?!
ABER - siehe Wikipedia:
"Die Spezifikation für OpenCL 1.0 wurde am 8. Dezember 2008 veröffentlicht."
Wenn die ihre Forschungsprojekte mit Cuda berechnen ist das Ok
Das ist nicht nur ok, sondern das war ihre einzige Möglichkeit.
aber ein eigenes Fach für eine Technik die beim erscheinen von OpenCL und DX11 obsolet wird ist absoluter Stuß. Cuda ist wie Glide von 3dFx, letztenendes geht es doch unter mag es noch so gut und verbreitet sein.
Dann hätten sie warten sollen, bis OpenCL in der finalen Spezifikation zur Verfügung stand?!
Du solltest lieber froh sein, dass es solche Vorreiter gibt. Ohne Glide und 3dfx damals wäre die 3D- Beschleunigung heute noch nicht so weit. Genau das gleiche ist es mit CUDA.
Ich habe eine Geforce und mir hat dieser Cuda-Mist nicht einen Vorteil gebracht...
Und du repräsentierst alle Nutzer oder was?!
Die meiste Videobarabeitungssoftware mit Cuda-Support ist totaler Rotz, weil Cuda meist nur die Effekte berechnet... reiner Videoschnitt zieht keinen Nutzen aus dem Cuda-Support
Unwichtige Detaildiskussion. Außerdem ist CUDA viel zu jung, als das Softwareprodukte bereits großen Nutzen daraus ziehen. Aber siehe oben, auch hier solltest du froh sein, dass überhaupt mal jemand damit angefangen hat.
und spezielle PhysX-Spiele sind etweder schlecht gemacht (Cryostasis... Das Wasser sieht wie Mist aus) oder die Physikeffekte sind unnötig
Und ich finde Motoren mit 3L Hubraum in PKWs unsinnig. Und nu?!
bigot
Lieutenant
- Registriert
- Apr. 2007
- Beiträge
- 688
GDC schrieb:Was sehr schade ist, da rein rechnerisch die ATi-GPUs über eine höhere Rechenleistung verfügen sollten, schreibt zumindest die c't in Ihren Testberichten.
In Bezug auf GPGPU-Computing?
BTW: Wer ist die Schnickse auf deinem Ava?
B
BustaFiles
Gast
Cuda ist ( quasie ) OpenCL , denn Cuda erfüllt die specs von OpenCL(1) voll. Und AMD ist dazu aktuell noch nicht ganz in der Lage, jedenfalls bis DX11 kommt.ZerHaKKeR schrieb:Centre of Excremence - arrogantes Pack ...
CUDA is nur ein Lückenfüller bis OPENCL ausgereift ist ...
Wird Amd doch auch schon fast verzweifelt angeboten.
mfg
4890 hat zwar eine sehr hohe Rechenleistung, nützt aber mal wieder nur in Spielen etwas.
Euphoria
Admiral
- Registriert
- Apr. 2007
- Beiträge
- 9.245
@bigot
Ja rein von der rechnerischen Leistung ist ATI deutlich besser als nvidia.
Vergleich hier
Wenn man FLOPs (MADD/ADD) anschaut, sieht man , dass ATI höhere theoretische Rechenleistung hat, allerdings muss man es erstmal umsetzen.
@BustaFiles
Cuda und OpenCL sind komplett verschieden.
Das einzig gemeinsame ist, dass beide für GPU Computing da sind.
AMD's Stream ist OpenCL sehr ähnlich.
Nur ist es soweit ich weiß noch nicht in die Treiber implementiert und es gibt keine Anwendungen dafür.
Ich denke OpenCL wird sich besser durchsetzen als DX11, da für DX11 eine DX11 kompatible Karte benötigt wird, wo OpenCL auch DX 10 Karten unterstützen wird.
Ja rein von der rechnerischen Leistung ist ATI deutlich besser als nvidia.
Vergleich hier
Wenn man FLOPs (MADD/ADD) anschaut, sieht man , dass ATI höhere theoretische Rechenleistung hat, allerdings muss man es erstmal umsetzen.
@BustaFiles
Cuda und OpenCL sind komplett verschieden.
Das einzig gemeinsame ist, dass beide für GPU Computing da sind.
AMD's Stream ist OpenCL sehr ähnlich.
Nur ist es soweit ich weiß noch nicht in die Treiber implementiert und es gibt keine Anwendungen dafür.
Ich denke OpenCL wird sich besser durchsetzen als DX11, da für DX11 eine DX11 kompatible Karte benötigt wird, wo OpenCL auch DX 10 Karten unterstützen wird.
Arhey schrieb:Ich denke OpenCL wird sich besser durchsetzen als DX11, da für DX11 eine DX11 kompatible Karte benötigt wird, wo OpenCL auch DX 10 Karten unterstützen wird.
Nicht zu vergessen, dass man für DirectX einen Windows Rechner benötigt. Die Unis, die ja ein riesiges Interesse an GPU- Computing haben, werden aber kaum auf Windows- Rechner für Rechencluster setzen.
M
MacGyver
Gast
dllfreak2001 schrieb:Wenn die ihre Forschungsprojekte mit Cuda berechnen ist das Ok, aber ein eigenes Fach für eine Technik die beim erscheinen von OpenCL und DX11 obsolet wird ist absoluter Stuß.
Cuda wird keinesfalls obsolet, sondern immer notwendig bleiben, genauso wie ATi Stream. Diese Technologien vermitteln zwischen der Grafikkarte und OepnCL, bzw. dem Compute-Shader. Ohne Cuda (oder ATi Stream) funktioniert das nicht.
Haha Killermuecke, du bringst es auf den Punkt. Reine PR halt, sonst nichts. Wirkliche Substanz ist da nicht vorhanden. Aber ist schon lustig, wie viele Leute darauf gleich wieder anspringen.
Schnittstellen für GPGPU gibt es schon viel länger. CUDA ist also alles andere als ein Vorreiter. CUDA hat lediglich den Vorteil, dass es von nVidia stammt, die gleich die Hardware mitliefern können und nicht gerade ein kleiner verein sind. Damit kann man natürlich gut auf Kundenfang gehen.
DX11 hat erstmal überhaupt nichts mit AMD, CUDA, OpenCL oder sonst wem was zu tun. DirectX ist immer noch Microsoft. AMD und nVidia liefern maximal Treiber, damit die jeweilige Hardware DirectX softwareseitig unterstützt. Und die mit DX11 eingeführten Compute Shader sind lediglich eine weitere Alternative zu CUDA, Stream und OpenCL. Und was bitteschön soll denn "Cuda erfüllt die Specs von OpenCL" bedeuten? CUDA erfüllt überhaupt keine Specs von OpenCL. Das soll es auch gar nicht. Das sind zwei völlig separate Schnittstellen, die sich in keinster Weise bedingen. Man könnte OpenCL lediglich über CUDA implementieren, genauso wie das ATI mit Stream kann. Und wie weit ATI und nVidia mit ihrer OpenCL Implementierung sind, kann sowieso niemand von uns beurteilen. Oder ist hier jemand an der Entwicklung beteiligt?
Und wer immer noch glaubt, dass CUDA eine Zukunft ausserhalb von nVidia hat, der schaut sich am besten mal an, wer Neil Trevett ist.
Die "passenden" Grafikkarten gibt es auch schon. Was noch fehlt, ist die Implementierung. ATI scheint da aber schon relativ weit zu sein. Die kürzlich auf der GDC gezeigten Havok Demos basierten zB schon auf OpenCL.dllfreak2001 schrieb:OpenCL gibt es schon nur fehlen noch die passenden Grafikkarten...
Und CUDA soll damit angefangen haben?karamba schrieb:Unwichtige Detaildiskussion. Außerdem ist CUDA viel zu jung, als das Softwareprodukte bereits großen Nutzen daraus ziehen. Aber siehe oben, auch hier solltest du froh sein, dass überhaupt mal jemand damit angefangen hat.
Sry, aber das ist der grösste Käse, den ich bisher hier im Thread gelesen habe. Und das will was heissen.BustaFiles schrieb:Cuda ist ( quasie ) OpenCL , denn Cuda erfüllt die specs von OpenCL(1) voll. Und AMD ist dazu aktuell noch nicht ganz in der Lage, jedenfalls bis DX11 kommt.
Und wer immer noch glaubt, dass CUDA eine Zukunft ausserhalb von nVidia hat, der schaut sich am besten mal an, wer Neil Trevett ist.
Zuletzt bearbeitet:
W
waRhawK
Gast
NVIDIA wird sich hüten, einen OpenCL-Pfad in ihre Treiber zu integrieren, wenn sie vom Markt dazu nicht mit dem nötigem Druck (d.h. Games, Anwendungen) versorgt werden 
EDIT: Aber irgendwann wird es soweit sein.
EDIT: Aber irgendwann wird es soweit sein.
Nvidia weis schon was sie machen!!
Das mit cuda ist ja erst der anfang von allem.
ich danke mitte 2010 gbits einen großen schlag und ne Nvidia x86CPU ist da, den sie kaufen sich bei VIA ein und die haben die Lizenz da Nvidia weiter will wird das dan das ultimative werden.
Nvidia kann dan alle Haupt komponenten aus 1 Hand anbieten:Chipsatz,CPU, Grafigarte das natürlcih aufeinander Optiemiert ist. HEHE!!
LG
Das mit cuda ist ja erst der anfang von allem.
ich danke mitte 2010 gbits einen großen schlag und ne Nvidia x86CPU ist da, den sie kaufen sich bei VIA ein und die haben die Lizenz da Nvidia weiter will wird das dan das ultimative werden.
Nvidia kann dan alle Haupt komponenten aus 1 Hand anbieten:Chipsatz,CPU, Grafigarte das natürlcih aufeinander Optiemiert ist. HEHE!!
LG
gruffi schrieb:Und CUDA soll damit angefangen haben?Schnittstellen für GPGPU gibt es schon viel länger. CUDA ist also alles andere als ein Vorreiter. CUDA hat lediglich den Vorteil, dass es von nVidia stammt, die gleich die Hardware mitliefern können und nicht gerade ein kleiner verein sind. Damit kann man natürlich gut auf Kundenfang gehen.
Haha, du vergleichst irgendwelche kleinen Speziallösungen mit nVidias Bemühungen, GPU- Computing auf weit verbreiteter Hardwarebasis zu ermöglichen? Echt witzig. Fakt ist, dass ohne CUDA GPU- Computing für viele Softwareentwickler (folding@home, badaboom, photoshop und wer weiß, wer noch entwickelt) noch gar kein Thema wäre. Insofern kann man nV schon als Vorreiter auf dem Gebiet bezeichnen.
Und die Unis gehen ihnen wahrscheinlich auch nur auf den Leim, weil sie von nVidia bestochen werden und nicht, weil nVidia auf dem Gebiet neue Möglichkeiten eröffnet... und sei es nur ein bisher nicht da gewesenen Preis/Leistungsverhältnis für Rechencluster.
Und wer immer noch glaubt, dass CUDA eine Zukunft ausserhalb von nVidia hat, der schaut sich am besten mal an, wer Neil Trevett ist.![]()
Ich denke auch, dass nVidia offene Schnittstellen unterstützen muss. Und das werden sie auch. Haben ja unlängst OpenCL- Support angekündigt.
waRhawK schrieb:NVIDIA wird sich hüten, einen OpenCL-Pfad in ihre Treiber zu integrieren, wenn sie vom Markt dazu nicht mit dem nötigem Druck (d.h. Games, Anwendungen) versorgt werden![]()
http://www.nvidia.de/object/io_1229090804255.html
Naja so siehts dann doch nicht aus. Es gibt einige Unis, die Vorlesungen haben in denen mit CUDA "gelehrt" wird. Dave Kirk war letzes Jahr auch an deutschen Unis unterwegs und hat unter anderem Vorträge über Cuda gehalten.dcdead schrieb:Tja, an deutschen Unis kann man von solch aktuellen Lehrveranstaltungen meisten nur träumen...![]()
Interessant von der Nachrichtenauswahl finde ich auch, dass es für „CUDA Centre of Excellence“ in Havard eine News gibt und für das neue Intel Visualisierungszentrum an der Saarbrücker Uni nicht. Da braucht man sich nicht zu wundern, wenn manche Leute einen solchen Eindruck von deutschen Unis haben.
nVidia hat schon lange angekündigt, dass es OpenCL Support geben wird.waRhawK schrieb:NVIDIA wird sich hüten, einen OpenCL-Pfad in ihre Treiber zu integrieren
Wunschdenken, mehr nicht. Selbst wenn sich nVidia Anteile an VIA sichert, dadurch bekommen sie noch lange keine x86 Lizenz. Dh, die CPUs werden weiter von VIA kommen. nVidia kann maximal bei der Entwicklung hilfreich zur Seite stehen. Und dass wir hier über CPUs vom Format eines Nanos oder Atoms reden, ist dir hoffentlich klar? Ein x86 Prozessor ist ziemlich komplex, die Entwicklung also äusserst aufwändig. Ein entsprechendes Konkurrenzprodukt zu AMD und Intel würde daher mehrere Jahre dauern. Mit 2010 ist da nix. Und wenn man fertig ist, ist die Konkurrenz schon wieder 2-3 Generationen weiter. Ähnliche Probleme wird Intel übrigens auch mit Larrabee haben.ICHBINDA schrieb:ich danke mitte 2010 gbits einen großen schlag und ne Nvidia x86CPU ist da, den sie kaufen sich bei VIA ein und die haben die Lizenz da Nvidia weiter will wird das dan das ultimative werden.
Nvidia kann dan alle Haupt komponenten aus 1 Hand anbieten:Chipsatz,CPU, Grafigarte das natürlcih aufeinander Optiemiert ist. HEHE!!
Das einzige Unternehmen, welches momentan und in naher Zukunft alles aus einer Hand liefern kann, ist AMD. Wobei diese ja schon den nächsten Schritt gehen. Stichwort Fusion.
Nein, ich vergleiche es mit umfassenden Lösungen, die es vor CUDA gab, wie zB BrookGPU. Selbst ATI hatte meines Wissens nach mit CAL schon eine Lösung vor nVidia.karamba schrieb:Haha, du vergleichst irgendwelche kleinen Speziallösungen mit nVidias Bemühungen, GPU- Computing auf weit verbreiteter Hardwarebasis zu ermöglichen?
Nein, das ist kein Fakt, sondern eine Ansicht. Und dazu noch eine ziemlich fragwürdige. Jeder Entwickler, der das wollte, konnte auch schon vor CUDA GPGPU Anwendungen schreiben.karamba schrieb:Fakt ist, dass ohne CUDA GPU- Computing für viele Softwareentwickler (folding@home, badaboom, photoshop und wer weiß, wer noch entwickelt) noch gar kein Thema wäre. Insofern kann man nV schon als Vorreiter auf dem Gebiet bezeichnen.
Fakt ist vielmehr, dass GPGPU Computing bisher recht schwierig umzusetzen war, da Grafikkarten nicht für GP Computing gedacht waren. Grafikschnittstellen wie OpenGL oder DirectX Graphics wurden dann idR zweckentfremdet. Erst mit Shader Architekturen wie in aktuellen Grafikkarten hat sich diese Situation grundlegend geändert. Das ist aber kein Verdienst von CUDA, sondern eben der Hardware.
@ICHBINDA: Eigentlich gehört es sich ja nicht, über Rechtschreibfehler zu mäkeln, aber kannst Du nicht Deine Beiträge noch einmal kurz überfliegen? Bei Schreibweisen wie "Grafigarte" kommt mir das Blut so aus den Ohren wie Killermuecke bei dem Wort Exzellenz (thx für die coole Metapher Killermuecke
)
Gruß
P
Gruß
P