News Harvard wird „CUDA Centre of Excellence“

Parwez

Admiral
Registriert
Jan. 2004
Beiträge
7.472
Die Harvard University in Cambridge, Massachusetts, wurde von Nvidia offiziell zum „CUDA Centre of Excellence“ ernannt, da die Universtität sich besondere Verdienste bei der Lehre auf dem Gebiet GPU Computing erworben habe und CUDA-fähige GPUs in einer Vielzahl technisch-wissenschaftlicher Projekte nutze.

Zur News: Harvard wird „CUDA Centre of Excellence“
 
Ich finde es gut wenn nVidia die GPU Physik in solchen Universitäten Investieren.
Aber natürlich ist es mir auch klar das es doch eine Art Werbung ist seitens nVidia für Ihre CUDA unterstützendes Physik ;)
 
Finde es klasse, mit welcher Geschwindigkeit Nvidia CUDA vorantreibt.
 
@Project-X

CUDA hat mit Physik nichts zu tun!
Es ist eine Schnittstelle die für Berechnungen genutzt wird.
Und PhysX nutzt diese Schnittstelle nicht umgekehrt.

nvidia investiert sehr viel Geld um sich in dem Bereich durchzusetzen, was zur Zeit nicht schwer ist, da ATI Stream nicht wirklich vorantreibt.

Wird sich allerdings mit Open CL und DX 11 ändern können.
Gerade deshalb versucht nvidia zur Zeit soweit wie möglich zu kommen um dann diese beiden auf Abstand zu halten.
 
Arhey schrieb:
nvidia investiert sehr viel Geld um sich in dem Bereich durchzusetzen, was zur Zeit nicht schwer ist, da ATI Stream nicht wirklich vorantreibt.

Was sehr schade ist, da rein rechnerisch die ATi-GPUs über eine höhere Rechenleistung verfügen sollten, schreibt zumindest die c't in Ihren Testberichten.
 
Finde ich super was Nvidia alles mit Cuda erreicht und wenn eine Elite Uni auch darauf zurückgreift und weiter forscht kann dass nur gut sein.

Vielleicht entwickelt Nvidia das System noch soweit das auf eine herkömmliche CPU verzichtet werden kann, da dann eine Grafikkarte den Part mit übernimmt.
 
Nvidia tut das einzig richtige : man versuch sich von den möglichen Alternativen die bald kommen schon im Vorfeld abzusetzen.

Wenn erstmal reichlich software existiert die nicht einfach portiert werden kann, dann stellt dies eine extreme Hürde für die etwaigen Alternativen dar.

Ein Monopol in der Richtung würde ihnen sicher gut gefallen.
 
Vielleicht entwickelt Nvidia das System noch soweit das auf eine herkömmliche CPU verzichtet werden kann, da dann eine Grafikkarte den Part mit übernimmt.

geht nicht

zum starten brauchst du immer noch ein bios, das ne CPU braucht, alle größere OSsen sind für x86-CPUs, und ne GPU ist nur in einigen szenarien der CPU voraus

außer nV lötet noch ne x86er cpu mit auf die graka:D
 
@smart_nOOb
Was denkst du wieso sich nvidia und Intel streiten? ;)
Naja nvidia wünscht sich schon sowas, aber ob es je soweit kommt wage ich zu bezweifeln.

Wann kommt eigentlich Open CL raus?
Naja CUDA ist schon feine Sache, dennoch schade, dass es keine wirkliche Konkurenz gibt, das verhilft nvidia ihre teilweise immernoch alte Technologien sehr gut zu verkaufen.
 
OpenCL sollte doch mit DX11 erscheinen (mit dem Erscheinen von Windows 7), wenn ich mich nicht irre.
 
OpenCL sollte doch mit DX11 erscheinen

OCL gibts doch schon, wurde vor einiger zeit standardisiert

nur programme die es nutzen, an denen fehlt es

und mit DX11 würde es keinen sinn machen, dazu sind ja die compute shader da, wenn ich mich nicht irre

OSX 10.6 erscheint im juni(?) und hat OCL schon dabei, also sollte es vorher kommen:D
 
Mmh, ich finde solche Koorperationen auf Unis eigentlich gut, aber hier möchte doch jemand am liebsten ein Monopol aufstellen. Ich hoffe AMD legt bald nach...

An einer Uni sollte weitestgehend allgemein unterichtet und herstellerunabhängig unterichtet werden. Wenn man gerade da sowas macht, mit einer Technik von der man weiß, dass diese nur mit einer ganz bestimmten Hardware eines bestimmten Herstellers läuft, dann ist das irgendwie grenzwertig.
Insbesondere mit dem Ausblick auf OpenCL, dass alle Hersteller nutzen können ist so ein Vorgehen, doch fragwürdig.
 
*Lachkrampfbekomm*

Das ist ja noch viel lächerlicher als die deutsche Blendgranate "Exzellenzinitiative". Was kommt als nächstes, Siemens Centre of Waschmaschinen-Exzellenz? *gacker*
 
@dllfreak2001:

Naja, was sollten die Unis bis jetzt machen? OpenCL stand noch nicht zur Verfügung, CUDA hingegen schon. Und die Möglichkeit GPUs für Berechnungen zu nutzen ist sehr verlockend.

Wie es in Zukunft läuft, lässt sich schwer vorhersagen. Normalerweise müsste sich früher oder später die offene Schnittstelle, also OpenCL, durchsetzen. Allerdings entbindet dies die GPU Hersteller nicht davon, entsprechende Implementierungen bereit zu stellen. Und hier ist nVidia offensichtlich mit CUDA eifrig am basteln und hat dadurch auf diesem Gebiet einen nicht von der Hand zu weisenden Vorsprung, ob nun mit OpenCL oder ohne.
 
Zuletzt bearbeitet:
@Killermücke:
Ich weiß ja nicht, was du von Hochschulpolitik verstehst, aber die "Exzellenzinitiative" bringt einen riesen Haufen Geld an die Gewinner-Unis, also eine Lachnummer ist das mit Sicherheit nicht.
Dazu kommt, dass für viele nummerische Berechnungen die Parallelrechenkünste von Grafikkarten wie Faust aufs Auge passen. Zudem sind sie deutlich billiger als vergleichbare CPU Cluster. Meine Uni inverstiert gerade in mehrere Großrechner von Nvidia. Wenn eine Uni sich die 100.000 Euro sparen kann, weil sie von NVidia gesponsort wird, ist das eine gute Sache, ich würde mich jedenfalls nicht beschweren.
 
@Killermücke:
Ich weiß ja nicht, was du von Hochschulpolitik verstehst, aber die "Exzellenzinitiative" bringt einen riesen Haufen Geld an die Gewinner-Unis, also eine Lachnummer ist das mit Sicherheit nicht.

Von Hochschulpolitik verstehe ich genug, dass mir das Blut aus den Ohren läuft, wenn ich das Wort Exzellenz schon wieder hören muss. Das einzige, was sich wirklich gesteigert hat, ist der bürokratische Aufwand, der nimmt mittlerweile schon groteske Züge an.

Wenn jetzt schon Unternehmen anfangen, Unis zu Exzellenzunis zu ernennen, dann ist das angemessen lächerlich, mehr nicht.
 
Aber Harvard ist eine Exzellenzuni

außerdem: Der Bürokratische Aufwand ist gestiegen, aber diejenigen Unis, die sich schnell genug anpassen und dabei abräumen haben jetzt sicherlich mehr Geld als vorher.
 
Zuletzt bearbeitet:
Wäre auch zu Schade wenn Cuda vielleicht im Schnittstellenkampf irgendwann vergammelt. Und wie prestigeprächtig wird es wohl werden, wenn sensationelle Forschungsergebnisse dank Cuda zustande kommen. Die Investition lohnt bestimmt.
 
Zurück
Oben