News Harvard wird „CUDA Centre of Excellence“

Außerdem ist CUDA viel zu jung, als das Softwareprodukte bereits großen Nutzen daraus ziehen
Eben... Da könnte man genausogut sagen, dass Quad-(und mehr)Core CPUs überflüssig sind. Ich kenne auch heute nach über einem Jahr Marktpräsenz nicht viele Programme, die Multicore auf CPUs richtig ausnutzen.
Aber es ist wie so immer... Wenn es die Technik gibt, dann wird auch früher oder später dafür entwickelt.
 
Naja Multicore nutzen schon sehr viele Programme.
Das sieht nur bei Spielen noch nicht so gut aus, aber es wird langsam.

Aus CUDA kann man großes Nutzen ziehen und wie.
Es gibt auch schon einige Programme die dieses wirklich nutzen.
Durch das SDK ist jeder in der Lage selbst Programme dafür zu entwickeln.
 
gruffi schrieb:
Nein, das ist kein Fakt, sondern eine Ansicht. Und dazu noch eine ziemlich fragwürdige. Jeder Entwickler, der das wollte, konnte auch schon vor CUDA GPGPU Anwendungen schreiben.
Fakt ist vielmehr, dass GPGPU Computing bisher recht schwierig umzusetzen war, da Grafikkarten nicht für GP Computing gedacht waren. Grafikschnittstellen wie OpenGL oder DirectX Graphics wurden dann idR zweckentfremdet. Erst mit Shader Architekturen wie in aktuellen Grafikkarten hat sich diese Situation grundlegend geändert. Das ist aber kein Verdienst von CUDA, sondern eben der Hardware.

Schön, da wir die Hardwareprobleme hinter uns gelassen haben, wo sind die BrookGPU oder CAL Anwendungen? Wo sind die alternativen GPGPU Schnittstellen/Applikationen? Wieso macht sich nVidia überhaupt den Aufwand, eine entsprechende Schnittstelle zu schaffen, wenn es längst etwas in dem Bereich gibt? Ganz einfach, weil es für Entwickler von kommerzieller Software besser ist, auf eine Schnittstelle zu setzen, bei der von bestmöglichem KnowHow und kontinuierlicher Weiterentwicklung ausgegangen werden kann. Sowas gab es vor CUDA nicht.
Meinst du eine Firma wie Adobe hätte sich auf einen Uniprojekt- Compiler verlassen oder sich mal eben schnell selbst was zusammengefrickelt? Wohl kaum.

Du scheinst aber etwas grundlegend mißzuverstehen. Ich sage nirgends, dass CUDA einzigartig ist. Was ich sage, ist, dass CUDA in der Form wie es nVidia aufzieht definitiv ein Vorreiter bei der weiten Verbreitung von GPU- Computing ist. Das diese Schnittstelle irgendwann überholt ist, spielt keine Rolle, auch nicht für das gesammelte KnowHow bei nVidia.
 
karamba schrieb:
Meinst du eine Firma wie Adobe hätte sich auf einen Uniprojekt- Compiler verlassen oder sich mal eben schnell selbst was zusammengefrickelt?
Ups, das war ein Eigentor. Adobe setzt nicht auf CUDA, sondern OpenGL. :D

Und ja, ich meine OpenGL, nicht OpenCL.
 
Wenn du dir da so sicher bist, kannst du ja auf Wikipedia den CUDA- Artikel editieren:

"Andere Programme wie "TMPGEnc" oder Photoshop CS4 kommen mit einer CUDA Unterstützung daher, um verschiedene Arbeitsvorgänge zu beschleunigen (z.B. der Einsatz von Filtern, ...)"
 
Das ist ja auch nicht unbedingt falsch. Es gibt Filter von Drittherstellern, z.B. nVidia, die CUDA benutzen. Aber die Programme selbst (Photoshop & After Effects) benutzen OpenGL.

Aus den TechNotes von Photoshop CS4:

Photoshop CS4 leverages the graphics display card's GPU, instead of the computer's main processor (the CPU) to speed its screen redraw. For Photoshop to access the GPU, your display card must contain a GPU that supports OpenGL and has enough RAM to support Photoshop functions--at least 128 MB of RAM--and a display driver that supports OpenGL 2.0 and Shader Model 3.0.
 
Ja, das scheint zu stimmen. Ich würde mich aber nicht wundern, wenn Adobe wirklich CUDA Support implemetiert und es dieses Feature nur noch nicht in den letzten Release geschafft hat. Was dafür spricht? Apple Computer werden gerne von Grafikern und Videoschnipslern eingesetzt. Der Chipsatz bzw. die diskrete Grafik welches Herstellers sitzt in (fast?) jedem aktuell verkauften Mac? Richtig, nV.
 
Genau denn es läuft auch mit ATI Karten.
 
Auch interessant dazu diese Aussage:

No matter how much potential CUDA has, it's only supported by one hardware vendor and based on what I've heard from various sources, that's unlikely to change any time soon. After some long discussions, I did eventually get Nvidia to admit that it does see an industry standard taking over from CUDA in the future, but it is using CUDA to raise the awareness of GPU computing.

Quelle: KLICK
 
karamba schrieb:
Ja, das scheint zu stimmen. Ich würde mich aber nicht wundern, wenn Adobe wirklich CUDA Support implemetiert und es dieses Feature nur noch nicht in den letzten Release geschafft hat. Was dafür spricht? Apple Computer werden gerne von Grafikern und Videoschnipslern eingesetzt. Der Chipsatz bzw. die diskrete Grafik welches Herstellers sitzt in (fast?) jedem aktuell verkauften Mac? Richtig, nV.

Apple wird wohl eher OpenCL implementieren als Cuda, Ersteres ist auch im MacOS enthalten. Es besteht also gar kein zwingender Bedarf für Cuda...

:freak: NV prescht doch sowieso nur vor weil sie als Einzelgänger in diesem Bereich überhaupt eine Position auf dem Markt haben wollen, denn in den Startlöchern stehen immerhin solche Giganten wie OpenCL und DX11. Es ist eben nicht der gute Wille oder das Interesse an der Technik...
 
Als typische private Stiftungsuniversität hat Harvard schon immer unter dem Zwang gestanden, seinen immensen und ständig steigenden Mittelbedarf selbst aufzubringen. Die Regelstudiengebühren von rund 47.000 USD/Jahr pro Studienplatz decken nur einen kleineren Teil der Kosten. Ein größerer Teil stammt aus den zahlreichen Patenschaften und Kooperationen mit Firmen, gesellschaftlichen Gruppen und aus Vermächtnissen reicher Freunde, oft ehemalige Studierende. Schon früh war die Universitätsleitung dazu übergegangen, sich den Schwankungen dieser Einnahmequellen durch Anlegen eines Finanzpolsters möglichst zu entziehen. In den letzten Jahrzehnten hat sich Harvard ein Vermögensstock zugelegt, der Mitte 2007 mit der Börsenentwicklung bis zu 37 Milliarden USD aufgelaufen sein soll. Von anfangs 5 Bankfachleuten war die Finanzverwaltung schließlich auf 200 Fachleute angewachsen, die einen regen Personalaustausch mit den Investmentspezialisten der Banken betrieben. Schon lange hatten Spötter anzumerken, dass Harvard sich zu einer Bank mit angeschlossener Universität entwickelt habe.

Letzten Meldungen zufolge hat es den Vermögensfonds Harvards, da er gewissermaßen ein treues Abbild der verfehlten Investmentmentalität des US-Finanzmarktes ist, in der Finanzkrise hart getroffen: man spricht Mitte Dezember 2008 bereits von einem Drittel Verlusten. Die ersten Folgen sind Kursstreichungen, Privilegienabbau, Gehalts- und Personaleinstellungsstop

Quelle: Wikipedia


Geht wohl dabei um Geld
 
Naja es geht immer ums Geld.
 
fandre schrieb:
Photoshop CS4 und vorherige Versionen verwenden openGL für das Rendern auf 3D-Objekten. CUDA wird für Filter und ähnliches verwendet.
Ach ja? Komisch, dass dann alle GPU-beschleunigten Funktionen ebenfalls mit meiner ATI-Karte gehen.

Auch wenn vor der CS4-Veröffentlichung von nVidia ein anderer Eindruck erweckt wurde, Photoshop selbst benutzt kein CUDA, sondern ausschließlich OpenGL für die GPU-Beschleunigung. Wenn du mir nicht glaubst, dann such auf der Adobe Homepage nach 'CUDA'. Gleich der erste Treffer führt zu einem Adobe-Blog Eintrag, wo ganz unmissverständlich steht:

One thing I wanted to correct about Photoshop CS4: it is not using CUDA. Not sure how this rumour got out there, but it isn't true. Not that we aren't fans of CUDA, we just aren't shipping anything that uses it in CS4.
Quelle

Ich denke diese Aussage ist deutlich genug. :rolleyes:
 
ähm in Deutschland kämpft man für eine wirtschaftsunabhängige Forschung.
Wäre schlimm, wenn Universitäten nur zu Handlangern würden.

Denn Unternehmen investieren ungern in ungewisse Unterfangen, die in der Geschichte die Wissenschaft sehr vorangebracht haben. Es geht mehr darum bewährte Technik zu verbessern. Bei vielen Forschungsfeldern ist der Ausgang oft sehr ungewiss.

Ich finde soetwas bedauerlich, dass Harvard das Image aufbessern muss. Naja
 
karamba schrieb:
Schön, da wir die Hardwareprobleme hinter uns gelassen haben, wo sind die BrookGPU oder CAL Anwendungen?
Wo sind die CUDA Anwendungen? :rolleyes:

karamba schrieb:
Wo sind die alternativen GPGPU Schnittstellen/Applikationen?
Wie meinen?

karamba schrieb:
Wieso macht sich nVidia überhaupt den Aufwand, eine entsprechende Schnittstelle zu schaffen, wenn es längst etwas in dem Bereich gibt? Ganz einfach, weil es für Entwickler von kommerzieller Software besser ist, auf eine Schnittstelle zu setzen, bei der von bestmöglichem KnowHow und kontinuierlicher Weiterentwicklung ausgegangen werden kann. Sowas gab es vor CUDA nicht.
Doch.

karamba schrieb:
Du scheinst aber etwas grundlegend mißzuverstehen. Ich sage nirgends, dass CUDA einzigartig ist. Was ich sage, ist, dass CUDA in der Form wie es nVidia aufzieht definitiv ein Vorreiter bei der weiten Verbreitung von GPU- Computing ist.
Ich habe dich schon verstanden. Nur entspricht das eben nicht den Tatsachen. GPGPU gab es wie gesagt schon vorher. Und wenn, dann sind maximal das die Vorreiter. nVidia ist hier nur auf den fahrenden Zug aufgesprungen. Du verwechselst schlichtweg Konzeption und Realisierung einer Technologie mit Marktmacht. Letztendlich ist CUDA auch nicht wirklich bedeutsam für den Markt. Das werden eher portable Schnittstellen wie OpenCL.

karamba schrieb:
Wenn du dir da so sicher bist, kannst du ja auf Wikipedia den CUDA- Artikel editieren:

"Andere Programme wie "TMPGEnc" oder Photoshop CS4 kommen mit einer CUDA Unterstützung daher, um verschiedene Arbeitsvorgänge zu beschleunigen (z.B. der Einsatz von Filtern, ...)"
Wie schon erwähnt wurde, zumindest Photoshop setzt momentan auf OpenGL. Einen generellen CUDA Support gibt es nicht und wird es vermutlich auch nicht geben. Lediglich einige Addons von Drittherstellern nutzen CUDA.

karamba schrieb:
Ich würde mich aber nicht wundern, wenn Adobe wirklich CUDA Support implemetiert und es dieses Feature nur noch nicht in den letzten Release geschafft hat. Was dafür spricht? Apple Computer werden gerne von Grafikern und Videoschnipslern eingesetzt. Der Chipsatz bzw. die diskrete Grafik welches Herstellers sitzt in (fast?) jedem aktuell verkauften Mac? Richtig, nV.
Eher unwahrscheinlich. Erstens glaube ich nicht, dass sich Adobe so konkret auf eine Plattform und die Hardware festlegen wird. Alleine dein "fast" macht es schon zu einem No Go. Und zweitens setzt Apple auf OpenCL, siehe Leopard. Es ist daher wahrscheinlicher, dass Entwickler dies ebenfalls nutzen. Entweder explizit oder über die entsprechende Funktionalität der System API.
 
Zurück
Oben