News Nvidia: GPU in sechs Jahren 570 Mal schneller

Also ich denke aber auch er bezieht das nicht nur auf die reine Rechenleistung sondern auch auf "beschleunigende" und besseren Technologien (Treiber, DirectX,RayTracing?...). Wenn man sich zB die Benchmarks zwischen der Nvidia 7900GTX und der 285er anschaut hat die 285 bei hohem AA und AF schon 10x so viele fps. Und da liegen ja nicht soviel Jahre dazwischen. (Siehe zB Link)

https://www.computerbase.de/artikel/grafikkarten/14-grafikkarten-vergleich-test.1062/seite-5#abschnitt_crysis_warhead


Wenn man das so hinrechnet sind das 2,5 Jahre Abstand zwischen den beiden Karten.
Wobei die (Spiele-)leistung ca. 10x mal höher ist.

das heißt pro Jahr 2,5x. Also in 6 Jahren = 244x.


570 ist zwar wirklich hochgegriffen, aber Überraschungen gab es die letzten 100 Jahren ja zuhauf. Außerdem sollte man für die aktuelle Zeit nicht mehr die bald mehrere Monate alte 285 zum Vergleich ziehen, sondern eigentlich kurz warten und die nächste Generation mal vergleichen und dort dann einen Vergleich zu der 285 und dem Zeitraum ziehen. Eventuell geht das mit der Anzahl der Streamprozessoren ganz steil nachoben.


Eventuell bezieht er das auch auf "Multi GPU" .. also x2 Karten im SLI Verbund, obwohl er ja von einer GPU spricht, aber das ist ja immer so ne Sache ;) evtl. vielleicht mehrere GPUs auf einem DIE die aber je nach Lust und Laune aufgetrennt und zusammengepackt werden können (wie bei Core2Duo/Quad).
 
Da die angesprochenen Bereiche (er hat nicht von Gaming Performance gesprochen!), in denen diese Steigerung erfolgen soll, ja noch ziemlich in den Kinderschuhen stecken (GPU seitig gesehen), sehe ich eine jährlich 2,9 fache (entspricht 570mal schneller in 6 Jahren) Performance Steigerung für durchaus realistisch. Vorausgesetzt natürlich, dass die Entwicklung für die Bereiche in Zukunft verstärkt wird.

Habe das Gefühl, dass hier einige Leute nur die Überschrift gelesen haben und dann sofort gepostet haben...
 
@roenoe

ja das ist mir klar - so schlecht bin ich in mathe auch wieder nicht
aber dennoch schätze ich das nicht als wunschdenken ein. wir hocken zwar hier und lachen über den man, aber wir hier haben nicht mal ansatzweise die ahnung die er hat. wer weiß was nvidia entwickelt? ich halte es dennoch für realistisch - gerade in bereichen von klimaberechnung...etc. in diesen bereichen lässt sich die gpu noch ganz massiv mit der leistung nach oben treiben. mit gaming hat das aber nichts zu tun - und davon spricht er in dem interview auch gar nicht.

Ich habe ja nicht gesagt, das ich es falsch finde was du sagst, jedoch von 10mal schneller zu 570mal schneller darauf zu schließen, dass er nicht unrecht hat, fand ich halt extrem.
Deine Mathekünste wollte ich nicht in Frage stellen.^^
 
Wie schon einige angemerkt haben wurde es vollkommen falsch übersetzt.

Huang hat gesagt, dass es in 6 Jahren 570mal soviele Anwendungsgebiete für die GPU geben wird. Von Geschwindigkeit ist gar nicht die Rede. Sondern ganz einfach von der GPU als Konkurrenz zur CPU.

Zeigt mal wieder die Inkompetenz des CB Teams.
Das ist wirklich einfaches Englisch, da fragt man sich ob der Newsverfasser den Text überhaupt gelesen oder kein Englisch kann.
 
Eine 570-fach höhere Rechenleistung innerhalb von 6 Jahren halte ich aber dennoch für utopisch. Bis jetzt war es immer so, dass sich jährlich die Performance bei Grafikchips etwa verdoppelt hat. Wenn das weiterhin so bleibt, wird man in 6 Jahren bei der 64-fachen Leistung landen, also etwa ein zehntel so viel, wie prognostiziert. Eine Verdreifachung (oder wie demoness bereits feststellte, eine 2,9-fachung) halte ich auch in Bezug auf Optimierung der Aufgaben für sehr unrealistisch, da der Multiplikator der Leistung pro Zeit rückläufig ist und nicht noch zunimmt. Die Beschleunigung von 0 auf Hundert ist nunmal schneller als von 100 auf 200. Genauso ist es hier mit zunehmend kleineren Strukturen der Chips schwieriger, sie noch kleiner zu kriegen und weiter zu optimieren.
 
Er sagt nicht, dass sie 570 Mal schneller sind, sondern dass sie im GPGPU 570 Mal schneller sind bzw. nur in bestimmten Gebieten. Das ist ein meilenweiter Unterschied...
 
Taigabaer schrieb:
Also wenn ich die Entwicklung der letzten 2-3 Jahre sehe können wir froh sein wenn sich die Leistung der Grafikchips verzehnfacht in 6 Jahren.
Bis auf die Tatsache das meine Glaskugel in Repetarur ist.

2000/2001 wurde bei Grafikkarten die GigaFlop Marke geknackt mit der GeForce 2 GTS. 2008, also 7 - 8 Jahre später die TeraFlop Marke, was einer vertausendfachung der Leistung entspricht.

Aber es steht in den Sternen.
 
drago-museweni schrieb:
Das ist ja lustig mal sehen ob das so eintrifft, binn da eher skeptisch wenn ich die letzten 3Jahre so betracht, das mit den CPUs denke schon das die um einiges schneller werden vor allem werden die viel mehr Kerne haben.

Schonmal mit einer GTX295 gerendert?
Warscheinlich nicht.... ;)

----------------------------------------------------------------------------------------

Wenn man sich die FLOPS anschaut, hat sich die Leistung in den letzten 10 Jahren sehr stark erhöht.
Vergleicht doch mal eine 5900Ultra gegen eine GTX295 (1PCB).
Danach dann Start/Programme/Zubehör/Rechner und euch wird einiges klarer ;-)
 
Schon ärgerlich wenn alle nur die News voneinander abschreiben.

Da VR-Zone tatsächlich ein Bild von der Präsentation hat, glaube ich das die am ehesten wissen, was Jen-Hsung Huang meinte:
Die Leistung der CPU erhöht sich in den nächsten 6 Jahren um den Faktor 3, die Leistung von CPU und GPU zusammen aber um den Faktor 570. Was auch das Bild im Hintergrund beweist!
Also sollte klar sein, dass es hier um die Verbesserung des Zusammenspiels zwischen CPU und GPU geht und nur zu einem kleineren Teil um Leistungssteigerungen an der Einheit selber.

@ ComputerBase:
Vielleicht schafft ihr das noch eure News eindeutiger zu schreiben, sonst ist man hier in 6 Jahren total geknickt, dass man keine 45000 Frames in Crysis hat.
 
Immer wieder erstaunlich, was sich noch so aus dem Silizium rausholen lässt....

Bei Grafikkarten macht dieses riesen Rechenpotential auch Sinn, da es ausgenutzt werden kann.
Bei CPUs fehlt ja bis heute bei sehr vielen Produkten z.B. die Mehrkern-Unterstützung.

Man darf zwar Äpfel nicht mit Birnen vergleichen, aber vielleicht lohnt es sich einfach nicht so sehr CPUs weiterzuentwickeln, wenn sie im Gegensatz zu GPUs nicht richtig/effizient ausgelastet werden können...
 
Unsinnige Aussage. Da wurde einfach die Entwicklung der letzten Jahre, zu der unter anderem eine Zunahme des Stromverbrauchs von unter 25 auf bis zu 300W gehört, fortgeschrieben. Realistisch halte ich zwei Nullen weniger, also nicht ganz Faktor 6.
 
Ist nur Schade, wenn die GPU so schnell sind, die Programmierer aber zu dämlich sind, diese Leistung korrekt auszunutzen (siehe Crysis).
 
Hier mal ein Vergleich der Karten vor 6 Jahren mit aktuellen Karten.
2003 kamen die Geforce 5900 und Radeon 9800 raus.


Somit ist eine GTX 295 20mal schneller als eine Karte (Readon 9800XT) vor 6 Jahren.
 
Armselig, wenn man in sechs Jahren noch immer so etwas wie eine GPU braucht. Das ganze momentane PC-Konzept ist meines Erachtens nicht halb so gut, wie es bereits sein könnte...
 
Zurück
Oben