News Nvidia: GPU in sechs Jahren 570 Mal schneller

Witzige News das kann mit aktuellerer Technologie nicht einmal funktionieren, dann müssten sie ja die Chips Milliardenfach verkleineren und um noch ein mal soviele Shader erweitern oder bei der aktuellen Archtitektur einen völligen Blödsinn konzipiert haben.

Ich kenne zwar die Archtitekturen (digitalen Schaltungen) von Nvidia und CO nicht, weiß aber wie so etwas funktioniert und bin mir somit sicher dass so etwas nur auf Basis einer völlig neuen Technologie (optische Schaltungen oder organische Moleküle) möglich ist.

Sollte sich das wirklich als richtig behaupten würde ich wohl sehr überrascht sein... aber Mut hat der Herr Huang ja eine solche Aussage zu tätigen :-)
Errinnert mich irgendwie an eine Aussage, man würde nie mehr als 640KB Arbeitsspeicher benötigen. (Mal davon abgesehen ob dies der Herr Gates nun wirklich gesagt hat...)

mfg
aelo

edit: milliardenfach ist natürlich nicht wortwörtlich zu nehmen sollte nur symbolisieren dass es kein winziger Technologiesprun sein kann.
 
Zuletzt bearbeitet:
Hier denke ich liegt eher ein Versprecher oder Druckfehler vor. Denn mit der aktuellen Technologie ist das nicht machbar.
Und wie hoch ist dann der Stromverbrauch? 5-10 KW ??
 
http://www.tgdaily.com/content/view/43745/135/
San Francisco (CA) - Nvidia CEO Jen-Hsun Huang has predicted that GPU computing will experience a rapid performance boost over the next six years. According to Huang, GPU compute is likely to increase its current capabilities by 570x, while 'pure' CPU performance will progress by a limited 3x.


soll heißen: derzeit gibt es 10.000 rechner mit einer Leistung von 100.000 (x) die GPU Computing nutzen, in 6 jahren wird es schätzungsweiße 1.000.000 Rechner mit einer Leistung 57.000.000 (x) geben.

ob die Grafikkarten nun schneller werden oder nicht, steht nirgens.
es steht nur da das in 6 Jahren viel mehr Rechner GPU Computing nutzen.



Das was Für Computerbase echt nen griff ins Klo, das kapier ja zugar ich mit meiner Hauptschul Englisch 5 ;)
 
aha .... sorum wird ein Schuh draus , haette mich auch echt gewundert wenn Huang so einen Bloedsinn erzaehlt haette ...

Faktor 10 bei der Leistungszunahme waere schon sensationell , Faktor 570 ist voellig unmoeglich in der Zeit ....

Faktor 570 bei der Zunahme des GPU Computing in 6 Jahren ist dagegen sehr gut moeglich.


@Kasmopaya

Zumindestens im Spielebereich sind CPU`s mehr als schnell genug , der billigste i7 fuer 250 Euro reicht bei den meisten Spielen voellig aus um 4 der schnellsten Grafikkarten im Quad SLI-Verbund fuer ueber 1000 Euro auszulasten.
 
Zuletzt bearbeitet:
In letzter Zeit nehmen sie wirklich alle den Mund etwas voll.
Normalerweise ist man solche Aussagen von DAAMIT gewohnt.
Die sollten sich lieber ALLE mal auf die nahe Zukunft konzentrieren.
 
Kasmopaya schrieb:
Richtig Florian der Sinn wurde verdreht, so kommt das schon eher hin. Wobei die Aussage das die CPUs langsam bleiben und GPU viel schneller werden weiter bestand hat :D

da steht doch lediglich das der Markt für CPU "Computing" (oder wie mans da nennt) um lediglich das 3 fache wächst.

ist ja auch logisch, derzeit wird das ja alles mit der CPU gemacht, da finde ich eine verdreifachung der Kapazitäten sehr Ordentlich.


wenn man bedenkt das noch kaum jemand GPU komputing nutzt, ist eine Steigerung um das 570 fache gar nicht so abwegig.
wird ein SUpercomputer auf basis von GPU Computing gebaut, hat man die Derzeitigen Kapazitäten ja schon ver X Facht.


Seis wies ist, die CB News gehört dringend abgeändert.
 
Das ist in den drei Sparten, virtuellen Realität, Raytracing und der Echtzeit-Sprachübersetzung, durchaus denkbar. Vielleicht ein ehrgeiziges Ziel, aber durchaus sogar noch zu überflügeln. Diese Felder werden zur Zeit noch von der CPU übernommen (daher auch der Vergleich CPU/GPU) aber in Zukunft von der auf diesen Feldern schnelleren GPU berechnet. Dafür wird es einige "technische Umbauten" an der GPU geben, deren Betriebsmodi und der Erweiterung Treiber, mitsamt der Umstrukturierung der Software.
In der virtuellen Realität ist die Hardware und die dafür geforderte Software noch in den Kinderschuhen, daher sehr viel Potential offen.
Für das Raytracing gilt das gleiche. Dieser Algorithmus wurde vorher von der CPU berechnet.
Die Echtzeit-Sprachübersetzung gibt es zur Zeit nur fürs Militär und nur in Englisch-zu-Arabisch bzw. Arabisch-zu-Englisch. Es gibt auch nur eine Software "Sakhr Mobile S2S Translator". Die Ziele werden sicherlich in dem Ersetzen der Simultan-Dolmetscher sein und die Film- Softwareindustrien etc. die Berarbeitung und den Vertrieb (eine "DVD" für alle Länder) der Filme zu erleichtern.
 
Ich seh das so das nicht die ganze Karte 1 zu 1 um den Faktor 570 schneller wird sondern einzelne berechnungen.

Alle Spiele laufen nur um das übliche schneller wie sonst auch aber Raytracing und das andere gedöns wird gegenüber heute um den faktor 570 schneller laufen.

Vergleichbar mit CDUA. Videoberechnung letztes Jahr und diese Jahr mit CDUA. Diese funktion ist um einiges schneller als die Karten im gesammten als solches.

So lese ich den gemeinten leistungszuwachs der Karten das aus dem artikel raus.
 
Ich seh das so das nicht die ganze Karte 1 zu 1 um den Faktor 570 schneller wird sondern einzelne berechnungen.
So lese ich den gemeinten leistungszuwachs der Karten das aus dem artikel raus.

wie oft den noch, gar nix wird um den Faktor 570 schneller. (auch nicht ratracing oder gpu computing)
in 6 jahren wird es lediglich 60x so viele Rechner geben die GPU Computing verwenden.
(welches nach normalen maßstäben dann 10x schneller sein wird als heute)
 
florian. schrieb:
Seis wies ist, die CB News gehört dringend abgeändert.

Nun ein bisschen Mühe hättest du dir wenigstens beim schreiben geben dürfen. Mit dem Lesen des englischen Textes hapert es vielleicht mehr als du glaubst.

Zunächst mal interpretierst du einen Markt hinein, der gar nicht erwähnt wird. Welches Wachstum soll Huang meinen, wenn er gar keine Referenz erwähnt? Er spricht von Möglichkeiten oder Fähigkeiten von GPU computing, je nachdem wie man "capabilities" übersetzt. Weiterhin spricht er von "performance boost", oder wenigstens tut das TG Daily. Frage ich mich, wie du das als Steigerung der gesamten verkauften Rechenkapazitäten darstellen möchtest, statt wie es korrekt übersetzt gehört als Rechenleistung.

Weiterhin spricht er auch davon, dass die CPU Leistung nur um den Faktor drei steigt. Was auf den einzelne CPU gerechnet sicherlich nachvollziehbarer ist, als auf die gesamte verfügbare Kapazität in 6 Jahren.

Deine Interpretation in allen Ehren, nur sie wird nicht automatisch richtig, weil du das so behauptest. Aber vielleicht bist du einer der wenigen Deutschen, die das richtig übersetzen. Vielleicht solltest du das z.b. mal Heise mitteilen: http://www.heise.de/newsticker/Drastische-Erhoehung-der-GPU-Rechenleistung-bis-2015--/meldung/144503

Edit: Wie ich sehe bist du nur einer in der langen Reihe von Englisch-Experten. Von daher sorry, von dem hier kann sich dann jeder angesprochen fühlen, der lustig ist.

According to Huang, GPU compute is likely to increase its current capabilities by 570x, while 'pure' CPU performance will progress by a limited 3x.

Ich mein den Satz mag man im ersten Teil vielfältig übersetzen können. Nur macht er dann noch Sinn, wenn dann von CPU Performance und nicht capabilities die Rede ist? Leute, Satzbau ist auch im Englischen durchaus für die Interpretation entscheidend, ebenso das vollständige Lesen des Satzes. Entweder Huang vergleicht Äpfel mit Birnen und ihr alle wisst das besser als die Presse und er selbst. Oder aber sein Vergleich bezieht sich eben sehr wohl auf die Performance und nicht auf Anwendungsgebiete oder verkaufte Kapazitäten.

Da hilft es auch nichts gerade die Schlagwörter hervorzuheben, die für die eigene Interpretation völlig irrelevant sind.
 
Zuletzt bearbeitet:
Man sollte diese News mit Vorsicht geniessen und nichts hinein interpretieren was im originalen Text nicht drin steht.

Jen-Hsun Huang spricht davon, dass die "Ressourcen" oder "Möglichkeiten"(wie auch immer man das interpretieren mag) des Graphikchips im Bereich des "GPU computing" in den nächsten 6 Jahren um den Faktor 570 steigen werden, wobei die "pure" Leistung der CPU im selben Zeitraum um das Dreifache steigt.

Die Frage die sich daraus ergibt ist: Wo liegen die "Ressourcen" oder "Möglichkeiten" des Graphikchips im oben genannten Bereich im Vergleich zu den CPUs heute? Will der gute Jen-Hsun Huang uns evtl. nur sagen, dass NV im Bereich des "GPU computing" in Zukunft nachholen will oder verstärkt ihr Augenmerk auf diesen Bereich legen wird?
 
Zuletzt bearbeitet:
HFkami schrieb:
OHHHHH man der Man bezieht sich darauf alle GPU lösungen insgesamt, auch Nvidias Teslas kuckt mal was eine Tesla schon zu leisten vermag http://www.youtube.com/watch?v=VMygkWmsf2g&feature=channel_page und man kein ja auch noch vier weite in SLI zusammen legen, wird schon so zu treffen.

Liest du dir deine Posts eigentlich selbst mal durch, bevor du auf den "Antworten" Button drückst? Neun fehler in einem Satz, aua!
 
Zuletzt bearbeitet: (hatte zwei übersehen...)
Naja ich glaube nicht, dass die Entwikclung soooo schnell voranschreitet...
Mit jeder Geneation werden die jetztigen Grafikkarten ca. doppel so schnell...
 
http://www.xbitlabs.com/news/video/..._Times_by_2015_Chief_Executive_of_Nvidia.html
Code:
CPU-Alone 1,2^6 = 3x
CPU+GPU 50*1,5^6 = 570x
Das CPU Wachstum ist typischerweise zu niedrig angesetzt.
Das GPU Wachstum wird nicht alleine erwähnt.
Was hat er mit "50" gemeint?

Co-Processing The Right Processor for the Right Tasks
-> Wie gesagt, es geht wohl primär um GPGPU, die Überschrift und Newseinleitung ist und bleibt fehlerhaft, besonders weil es um die kombinierte GPU+CPU Leistung in diesem Bereich geht.
 
Dann kann man aber nicht pauschal sagen, dass die GPU 570 mal schneller wird!
 
Es wird ja auch nicht behauptet, dass die Gesamtleistung der GPU um das 570 fache steigt, sondern die Leistungsbereiche die die GPU anstelle der CPU übernehmen kann, aber noch nicht übernommen hat. Einige wurden ja bereits genannt, aber das werden sicherlich nicht einmal alle sein.
Weiterhin bezieht sich die Leistungssteigerung sicherlich nicht auf heutige GPUs sondern auf heutige CPUs.
Das ist eigentlich ein Angriff auf die CPU-Industrie, die momentan den Entwicklungsschritt der implementierung von GPU-Aufgaben in die CPU vorsieht. AMD und Intel wollen ja einen Grafik-Chip in die CPU integrieren.
Nun dreht der Nvidia CEO, Jen-Hsun Huang, den Spiess um und zeigt auf das der bessere Weg ein anderer wäre, den er natürlich auch zu gehen versucht.
Entscheidend wird aber auch sein, wie die Software-Industrie diese Entwicklungen umsetzt. Die wollen ebenfalls Gewinne machen. Also werden sie sich das ganze auch durchrechnen. Kosten und Nutzen sind dabei entsprechende Faktoren.
 
Zuletzt bearbeitet:
@HappyMutant
Daß sich die Leistung der GPUs in den nächsten 6 Jahren ver570facht wird der Mann wohl kaum behauptet haben. Diese Zahl ist doch völlig utopisch ... das muss einem doch auffallen.
Gerade wenn man einen Satz auf verschiedene Art und Weise interpretieren kann, sollte man doch umso vorsichtiger mit dem Übersetzen sein, und nicht die erstbeste, reißerischste Übersetzung als "Fakt" abdrucken.



Ich denke nach wie vor eher, daß vom Potenzial die Rede ist. Und um auf den Vergleich mit der CPU zu kommen:
Wärend die womöglich nur um den Faktor 3 schneller werden, könnte man in den nächsten 6 Jahren durch erweiterte Nutzung von GPUs bei diversen Programmen eine Leistungsteigerung vom Faktor 570x erreichen. Das scheint realistisch, und das ist meiner Auffassung nach auch das, was Huang gesagt hat.
 
Zuletzt bearbeitet:
Zurück
Oben