News Nvidia: Investitionen für Grafikunternehmen

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.731
Nvidia hat bekannt gegeben, ein Investitionsprogramm mit dem Titel „GPU Ventures“ zu starten, welches das Ziel verfolgt, junge Unternehmen bei der Entwicklung neuer Applikationen, die den Grafikprozessor nutzen, zu unterstützen.

Zur News: Nvidia: Investitionen für Grafikunternehmen
 
ja, und? schließlich will Nvidia grafikchips verkaufen, und eines ihrer argumente ist nunmal CUDA. da ist es doch nur logisch, wenn man unterstützt das andere unternehmen auf der eigenen plattform entwickeln.

so long and greetz
 
Also an Grafikaufgaben auf der CPU glaubt Intel doch wohl selbst nicht, die Grafik ist dafür viel zu rechenaufwendig und die CPU zu wenig spezialisiert, was auch gut so ist, denn sie soll immerhin alles können und die GPU für die Grafikberechnungen übrig lassen...
 
ist ja auch vollkommen klar...
Ein Unternehmen, ganz besonders so ein großes, ist nunmal darauf erpicht Gewinn zu erzielen und nicht wohltätig zu sein.

Also absolut klar, was nVidia will: Partnerschaften aufbauen und möglichst viele Unternehmen an CUDA binden.

Ich denke mal jedes Unternehmen, besonders junge die sowieso kein Geld haben ein fertiges Programm komplett umzuschreiben, wird die Finanzspritze begrüßen und wenn sie das Programm erstmal mit diversen CUDA-Code bestückt haben, wird es sicherlich als positiver Nebeneffekt für nVidia sehr schwer und kostspielig, den Code für andere Sachen wie ATI Stream oder so kompatibel zu machen.

Oder nVidia legt gleich nen Vertrag auf, in dem festgelegt wird das es das Unterstützungsgeld nur für ne Partnerschaft mit nVidia gibt. Mit anderen Worten, für das Projekt muss CUDA genutzt werden.

nVidia profitiert davon doch enorm, es werden jede Menge Programme rauskommen, aus allen möglichen Branchen (wo nVidia ja gar nicht so schnell selber etwas entwickeln könnte) welche dann auf CUDA setzen.


so long...vollkommen verständlicher und vor allem transparenter Schachzug von nVidia.

Besonders jetzt, da es noch keine wirkliche ernsthafte marktreife Konkurrenz für CUDA gibt, ist es klar das nVidia so viele Programme/Unternehmen wie möglich an CUDA binden will...




Ascer
 
Obwohl NVidia da wohl rein an sich selbst denkt, ist das doch durchaus zu begrüßen.

Ich habe absolut nichts dagegen, wenn immer mehr Software durch die GPU beschleunigt wird ;)

Grüße
jusaca
 
NV scheint noch immer flüssig zu sein wenn sie weiter so fleißig in den Untergang der CPU investieren können. ;)
Während Intel jedoch die Position vertritt, dass zukünftig Grafikfunktionen vermehrt über die CPU berechnet werden,
Super Aussage von Intel und selber mit hochdruck an einer hoch parallelen many Core-GPU arbeiten.

Apropos GPGPU schon ArcSoft TotalMedia™ Theatre ausprobiert? Herr der Ringe in Full HD 1080P bei 3% CPU Auslastung-> wie geil :D

NVIDIA Cuda im Alltag:ArcSoft TotalMedia Theatre
http://ht4u.net/reviews/2009/nvidia_geforce_gts250/index6.php
http://ht4u.net/reviews/2009/nvidia_geforce_gts250/index6.php?&&image_id2=arcsoft_compare_big.jpg
arcsoft_compare_small.jpg


http://www.pcgameshardware.de/aid,6...besserungstechnik-in-Aktion/Grafikkarte/News/
Cuda: Nvidias Videoverbesserungstechnik in Aktion
 
@Nitschi66

Ganz ruhig - wenn der Fisch zu groß wird, wird er geschluckt. So hat es Nvidia früher gemacht - und so wird es Ihnen ergehen - wenn sie Intel zu gefährlich werden!

MfG
 
@ascer
Besonders jetzt, da es noch keine wirkliche ernsthafte marktreife Konkurrenz für CUDA gibt, ist es klar das nVidia so viele Programme/Unternehmen wie möglich an CUDA binden will...


Bis lang hat Nvidia mit seinem Cuda auch nicht wirklich viel zu bieten.
mittelmäßiger Videokonverter namens Badaboom und Physx.
Und noch ein paar Wissenschaftsprojekte und andere kleinere Programme


Die wichtigen Programme werden eher auf universelle Standarts setzen
wie OpenCL.

siehe Photoshop CS4

wobei das auf OpenGl statt OpenCL setzt.
 
jap, wieso jetzt millionen investieren, um propitäre software entwickel zu lassen, die auf vll nur 50% neu verkauften Pc´s läuft, wenn in nem halben Jahr die ersten allgemeingültigen Schnittstellen wie OpenCL oder Compute Shader mit DirectX11 kommt.
Meiner meinung nach ist das nur Marketing geblubber, um Dell etc. davon zu Überzeugen, mehr NV Grafik in ihre Systeme zu stecken. Für den Endanwendern voll belanglos, die hälfte aller weltweit genutzen Pc´s ist nich in der Lage CUDA Software zu nutzen aufgrand anderen/ältere Graka, die andern 25% brauchen es nich weil sie die Software nicht einsetzten wollen oder besser für x86 haben und die letzten 25% haben nich das geld sich ne Graka für 50€ aufwärts und die Software für xxx€ zu kaufen.


Wenn CUDA etc so der mega burner wäre, gäbe es schon weitaus mehr Software, alles bisherige ist doch eher eine Machbarkeitsstudie. Die paar Leute vom Distibutesd Computing lager + ein paar Beschleunigungen für Photoschop + Badaboom + ArcSoft TotalMedia und das wars.

Wer weder mit Photoshop noch Seti@home arbeitet kann CUDA getrost inner Pfeife rauchen. Vor allem die Spielerfraktion. Nur wegen PhysicX in einem kommerziell erfolgreichen Spiel muss man keine NV Graka kaufen, wenns denn im gesuchten Preisbereich bessere Angebote der Konkurenz gibt.


Ich will hier nicht flamen, aber CUDA als Argument für NV ist nicht mehr wie Stream/CAL bei ATI. Nur das NV die besser Marketingabteilung hat, was nichts besonderes ist.
 
Zuletzt bearbeitet:
So weit ich weiß wollte ATI auf OpenCL setzen. OpenCL soll des weiteren wenn cih richtig informiert bin nach CUDA transformiert werden können.
Ergo: Programme setzen auf OpenCL und sowohl AMD als auch Nvidia profitieren.
Korrigiert mich bitte, falls ich mit meinen oben genannten Informationen daneben liege.
 
Das ist doch sehr zu begrüßen, dadurch wird jungen Unternehmen eine gute Starthilfe geboten.
 
NVIDIA verfolgt zwar mit CUDA einen konsequenten neuen Ansatz und ist bemüht diesen Voranzubringen, wofür dieses Projekt eben gedacht ist aber ob sich NVIDIA damit langfristig durchsetzen kann steht auf einem anderem Blatt geschrieben.
Es wird gesagt CUDA hat in gewisserweise die Vorreiterrolle eingenommen, es wird gezeigt GPU Computing ist eine große Hilfe im Computing aber CUDA ist proprietär und für eine breite plattformunabhängige Unterstützung ist das schon mal kein gutes Feature.
Lizenzgebühren und Verpflichtungen gegenüber NVIDIA dürfte weitgehends abschreckend wirken.
Nicht umsonst setzt AMD/ATI auf OpenCL, eine offene Schnittstelle wie OpenGL, weitgehends plattformunabhängig und nicht nur auf eine Hardware zugeschnitten.
Es wird dadurch einfach erwartet/erhofft das sich dies genau so durchsetzt wie eben OpenGL und DirectX. Ich glaub Intel setzt sich auch für OpenCL ein, damit steht CUDA langfristig am Abgrund.
Die Frage ist nur, wird sich NVIDIA mit CUDA einen Nischenplatz halten können (sicherlich, in einigen Finanzanwendungen und Forschung könnte CUDA einen Platz haben) oder gibt man langfristig CUDA für OpenCL auf?
 
uebelster schrieb:
wie wärs mal mit nem richtig neuem grfikchip? wird mal zeit so nach 3 jahren

GT300 kommt doch, der soll mal was ganz neues werden, wie der Schritt von G7x zu G8x. Eventuell finde ich dazu noch eine recht interessante, wenn auch stark theoretische Meldung bezogen auf die mögliche Mehrleistung, die editiere ich dann einfach hier rein.

edit: Schon gefunden, der Suchfunktion in der URL-Leiste von Firefox sei dank...
http://www.pcgameshardware.de/aid,6...iermal-so-schnell-wie-heute/Grafikkarte/News/
 
@AP Nova: Wenn man den Artikel liest, fällt einem auf, das viele Werturteile da drinstecken, was schonmal ein Zeichen dafür ist, dass es kein allzu seriöser Artikel ist.

Davon abgesehen steht im Artikel selber ja schon drin, dass es sich um theoretische Werte handelt, die wohl nichts mit der tatsächlichen Perfomance zu tun haben bzw. nicht in dem Umfang und was noch viel mehr den Kram entkräftet, diese ohnehin mehr oder weniger nichtssagenden theoretischen Berechnungen stützen sich allein auf Marketing-Statements von TSMC und besitzen keinerlei konkrete Fakten oder gar validierte Leistungstests.


Von daher: gut möglich, dass es (wieder) einen schönen Perfomancesprung geben wird (wird ja auch mal wieder Zeit^^), aber wie groß der sein wird...
Ans 4-fache glaube ich noch lange nicht und genau wissen wird man es sowieso erst, wenn erste verlässliche Tests, z.B. auf computerbase, erscheinen.


Ascer
 
suessi22 schrieb:
@Nitschi66

Ganz ruhig - wenn der Fisch zu groß wird, wird er geschluckt. So hat es Nvidia früher gemacht - und so wird es Ihnen ergehen - wenn sie Intel zu gefährlich werden!

MfG

was dann wiederum enormen druck auf amd ausüben würde und diese im schlimmsten fall intel eine monopolartige stellung überlassen müssten... ich glaube auch wenn das kartellamt damals bei amd anscheinend weg geschaut hat würde es in einem solchen eingreifen...:hammer_alt:

zudem glaub ich nicht das intel groß an der sache interessiert ist da sie mit der raytracing geschichte eine etwas andere auffassung über die grafikzukunft teilen als amd und nvidia...

aber whatever...

ich finde die sache von nvidia mit dem sponsoring richtig gut, so kann man seine potente grafikhardware auch anderweitig gebrauchen als nur zum spielen :daumen:
 
AP Nova schrieb:
GT300 kommt doch, der soll mal was ganz neues werden, wie der Schritt von G7x zu G8x. Eventuell finde ich dazu noch eine recht interessante, wenn auch stark theoretische Meldung bezogen auf die mögliche Mehrleistung, die editiere ich dann einfach hier rein.

edit: Schon gefunden, der Suchfunktion in der URL-Leiste von Firefox sei dank...
http://www.pcgameshardware.de/aid,6...iermal-so-schnell-wie-heute/Grafikkarte/News/
Die theoretische Mehrleistung geht von 65nm und nicht 55 nm aus und wenn ich mich nicht irre fertigt sowohl AMD/ATI als auch Nvidia in 55nm. Also wird das 4-fache schon mal ein bisschen beschnitten.
Des weiteren kann man nach deren Rechnung zwar in etwa 4 mal so viele Transistoren drauf packen, aber wie sieht dann die Taktfrequenz aus? Was ist mit der Leistungsaufnahme? Bleibt die gleich, da es ja ein kleinerer Prozess ist? ich bezweifel es.
Ich glaube kaum, dass der Leistungszuwachs so extrem sein wird. AMD hat für seine nächsten Grafikkarten ja bereits geplant 15% mehr Leistung bei 40% weniger Verbrauch (werden die Grafikkarten noch interessanter für HTPCs)
 
Zur Leistung von GT300 und RV870 behaupte ich jetzt mal, Leistungsaufnahme und Verlustleistung dürften da wesentlich wichtiger sein. Ich glaube kaum, dass NV und AMD bei der nächsten Generation mehr als die doppelte Leistung bieten, wenn überhaupt.

@topic: Freut mich definitiv zu hören. Es dürfte eine Menge Bereiche geben, in denen GPU-Computing zumindest teilweise die Arbeit deutlich beschleunigt. Allerdings hoffe ich als Radeon Besitzer, dass AMD in dem Bereich auch noch aktiver wird.
 
Ich persönlich habe auch nicht behauptet, dass der von mir verlinkte "Bericht" absolut wahrheitsgemäß ist, sondern nur auf diese (wie von mir bereits gesagt) theoretische Aussage hingewiesen.

Ich persönlich glaube auch nicht an 4- oder auch nur 2-fache Mehrleistung, im Moment fressen die High-End Modelle so viel Strom und brauchen so starke (=laute) Kühlsysteme, bei gleichzeitig nahezu überflüssig großer Leistung, da halte ich etwas stärkere, dafür viel sparsamere Karten auch für wahrscheinlicher.
 
Zurück
Oben