News Nvidia: GPU in sechs Jahren 570 Mal schneller

Schon lustig wieviele hier wieder Kommentare ablassen ohne Ahnung zu haben. Wer anfängt CPU mit GPU zu vergleichen disqualifiziert schon mal meistens direkt selbst und 570x schneller, naja, vielleicht. Im Grunde können die ja viel labern, wären ja nicht die Ersten damit ^^

Wenn man sich anschaut was eine Voodoo1 geleistet hat mit ihren 2-4 MB onboard RAM und was eine bald erscheinende DX11 Karte mit 1-2GB RAM leistet... ich denke SO utopisch ist das alles nicht immer. Die Frage ist immer wie und zu welchen Kosten man das erreichen will: sinnlose RAM-Steigerung, 1000€ Grafikkarten, 2 Stromversorgungen, Triple-SLI...

Da aber wohl auch bei GPUs viel in Richtung Multi-GPU geht wär das schon drin, mach aus ner GPU ne Dual GPU und man hat mit Glück die doppelte Performance ;) Bin mal gespannt... ich denke machbar ist das vielleicht schon. Auch wenn man viele neue Konzepte wie den Larabee betrachtet, wer weiß was da mal rauskommt wenn es ausgereift ist?

Gruß
 
HappyMutant schrieb:
Ja gut, aber die in der CB-News dargestellte Interpretation ist ja eigentlich von den meisten Seiten so auch genommen worden.
... die ebenso schlampig gearbeitet haben. Sorry, aber ich muss es einfach so ausdrücken.

Es ist und bleibt völlig utopisch.
Die Leistungsteigerung nimmt eher ab als zu, es sei denn man käme jetzt plötzlich mit einem ganz neuen "Kniff" um die Ecke. Aber wenn es da etwas gäbe, was sich in den nächsten 6 Jahren durchsetzen könnte, hätte man davon wahrscheinlich bereits gehört.

Also nochmal in Groß:
Gemeint war wahrscheinlich das Potenzial, Berechnungen durch den Einsatz einer GPU zu beschleunigen, die bislang nur auf der CPU berechnet werden. Daher auch der Vergleich mit der angenommenen Leistungssteigerung von CPUs.
... und NICHT eine reine Leistungssteigerung der GPUs in den kommenden Jahren.

Sorry für die hässliche Farbe, aber so sieht man's besser. :p
 
Zuletzt bearbeitet:
konti, in dem test (siehe mein link) hat die gtx285 zur 6800 mehr als 2000% gewonnen. es ist immer eine auslegungssache der ergebnisse. die herren von nvidia oder intel oder sonst eines unternehmens sagen ja nie, worauf sie dieses leistungsplus beziehen. man darf solche aussagen nicht zu genau nehmen. jeder übertreibt zu seinen gunsten. wichtig ist der zusatz "bis zu" ;)
 
was gerade mal das 20 fache wäre.


in der CB NEWS steht eindeutig das die GPU 570x schneller ist als Heute und diese Leistung vorallem für xxx gebraucht wird.
würde bedeuten: alles ist 570x schneller, auch Spiele...
Das dies Unfug ist, sollte jedem Klar sein.


also ich weiß nicht wie man die Original NEWS so übersetzen kann....
 
HappyMutant schrieb:
Entweder Huang vergleicht Äpfel mit Birnen und ihr alle wisst das besser als die Presse und er selbst. Oder aber sein Vergleich bezieht sich eben sehr wohl auf die Performance und nicht auf Anwendungsgebiete oder verkaufte Kapazitäten.

Du hast es absolut erfasst, Mr. Huang vergleicht jedenfalls in der Tat gern Äpfel mit Birnen, wenn man seine Aussagen nicht genau hinterfragt, kommt gern so ein Blödsinn heraus.
Ich schließe mich der Interpretation von florian. an.

Wenn er eine 570-fache Performancesteigerung gemeint hätte, hätte er auch von Performance gesprochen, wie bei der CPU.

Das ist wie mit der Aussage hier:

"I think the general buzz around the industry is that we are by far the largest producers of 40nm today and I think that that is, probably, consistent. We have shipped more and earlier than just about anybody[...]"

Ja klar, LOL.

Außer AMD vielleicht ;)
 
naja wenn mal 3dmurks03 nimmt, sind wir in den letzten 6 jahren ca. bei faktor 264x schneller

also geforce2mx zu einer hd4870 x2
 
Lübke schrieb:
ich weis schon, was du meintest, aber das mit den zwei gpu hat nur einen vorteil: der hersteller muss keine neue gpu mit mehr einheiten bauen. zwei gpus mit je 128 shader sind aber deutlich langsamer als eine mit 256 shader

Sorry jetzt muss ich mal blöde nachfragen.Sind Kerne nicht was anderes? Du redest von Shadern,ich von Cores.

Unterscheidet das man nicht normalerweise?:confused_alt:


Greetz!
Ergänzung ()

berserk3r schrieb:
Da aber wohl auch bei GPUs viel in Richtung Multi-GPU geht wär das schon drin, mach aus ner GPU ne Dual GPU und man hat mit Glück die doppelte Performance ;)


Eben das meinte ich ja mit meiner Aussage.Ich will nicht CPUs mit GPUs vergleichen,aber ich denke schon das es in ein paar Jahren in Graka Sektor genauso aussieht wie bei den heutigen CPUs.Mehrere Kerne auf einem Die.Nicht wie heute 2 Kerne auf einer Platine nebeneinander bei den jetzigen x2 Karten.


Greetz!
 
das ist ja genau das, was ich zu erklären versuche: du kannst eine cpu nicht mit einer gpu vergleichen. ein cpu-kern ist eine recheneinheit und ein shader ist auch eine recheneinheit. allerdings ist eine cpu-recheneinheit bei weitem komplexer als eine shadereinheit, deutlich vielseitiger und mit massig befehlssatzerweiterungen ausgestattet. ein shader ist nur eine primitive recheneinheit für simple aufgaben.

für die gpu bedeutet das, mehrere gpus auf einem die zu vereinen ist sinnfrei, da diese dann "extern" miteinander kommuniezieren müssten, was zeit und somit geschwindigkeit kostet. der einzige sinn in mehreren zusammengeschalteten gpus liegt, wie schon gesagt, darin, dass der hersteller schon vorhandene schwächere recheneinheiten zu einer stärkeren (aber deutlich ineffizienteren) karte zusammenfassen kann.
die alternative zur 4870x2 wäre eine neue gpu zu entwickeln, die über 80% mehr shadereinheiten verfügt (von bester skalierung der x2 ausgehend) und diese gesondert zu produzieren. neben den entwicklungskosten und der gesonderten produktion würden auch noch geringere yield-raten aufgrund der größeren transistorzahlen je chip die kosten erhöhen. dazu kommt das risiko, dass der hersteller die absatzzahlen und damit die produktionsmenge im vorraus berechnen muss.
für ihn ist es also einfacher, schneller und billiger einfach zwei vorhandene chips auf einer karte zusammen zu klatschen und fertig. für den kunden wäre eine karte mit einer gpu mit 80% mehr ausführungseinheiten besser, da unproblematischer und bei nicht optimaler multi-gpu-sklierung schneller.
 
schaut mal auf den technischen >Stand von vor 5 Jahren und jetzt. da war von CUDA etc. noch nicht viel zu sehen, ganz abgesehen von 8 und mehr Kernen in einer CPU.
Oder Gaming-PCs für 600€, oder erschwingliche, große LCD TVs für jedermann, oder oder oder.
Die Entwicklung schreitet schneller voran als uns lieb ist, ich würde jedenfalls keine Prognosen machen was in 5 jahren alles geschieht, bzw. Stand der Dinge sein wird.
Meine Prognose für 5 Jahre wird sein, dass es sich um eine völlig andere Welt handeln wird die wir uns hier noch gar nicht vorstellen können, es schreitet ja nicht nur die Entwicklung bei den Grafikkarten voran :freak:

Man sieht doch an der Entwicklung der letzten 10 Jahre, dass diese immer schneller voranschreitet. Früher hat man für so Leistungsschübe mehrere Jahre gebraucht, jetzt ist das nur noch eine Sache von Monaten
 
Zuletzt bearbeitet:
Nur CPU-Leistung verdreifachen?-.-
Das wäre sehr schlecht, da ich Nutzer professioneller Office PCs bin und das wäre nicht gerade eine all zu positive Entwicklung. Die Grafikleistung interessiert mich da wenig. Mal schauen. Hoffentlich ist die Entwicklung eher andersherum (schnellere CPU als GPU Entwicklung).
 
Aus dem englischen Bericht geht hervor, das sich nicht die Geschwindigkeit der gesamten CPU um den Faktor 3 erhöht, sondern das sich die reine Geschwindigkeit jedes einzelnen Kernes verdreifacht. Somit erhöht sich die tatsächliche Geschwindigkeit um ein vielfaches von 3 - Leider hat der Autor von CB das nicht berücksichtigt.

MfG

SkYLinE^
 
Lübke schrieb:
das ist ja genau das, was ich zu erklären versuche: du kannst eine cpu nicht mit einer gpu vergleichen.

Ich habe auch keinen Vergleich angestellt,sondern nur die Vermutung,das die Architekturen von CPUs und GPUs in in ein paar Jahren ähnlich aussehen könnten.

Na ja da heist es nur:"Abwarten und Tee trinken" :freaky:
 
3d transistoren wären ein weg, die neue technologie soll ja angeblich die CPUs von 5ghz and 30-50ghz katapultieren
 
du hast nur von multi-core cpus auf "multicore"-gpus geschlossen und das ist, wie hoffentlich verständlich geworden ist, nicht machbar. die vorstellung von einer gpu aus mehreren kleinen gpus ist eben etwas völlig anderes und sehr ineffizient.
- höherer verbrauch
- somit auch mehr abwärme
- weniger leistung
- größere die
- profilabhängikeit
- mikroruckler
einziger vorteil: höhere yieldraten bei der produktion durch kleinere teileinheiten und dadurch für den hersteller billiger. das ist also imho nicht die zukunft der gpu.
 
Zuletzt bearbeitet:
Lübke, grundsätzlich hast du recht, vergisst aber etwas.

Multicore GPU wäre sehr wohl möglich.
man Baut 2 Identische Kerne, welche man dann zusammen "Schweißen" kann.
vorteil: 2xKleine DIEs, hohere Yield-raten --> Billig Herzustellen.
also so wie bei Intels ersten C2D.
man entwickelt keinen großen Kern, sondern Baut 2 kleine zusammen.

dann bräuchte man auch nicht doppelten Speicher usw. wie bei CF
 
nein das hab ich nicht vergessen. die von mir aufgezählten nachteile würden dann immernoch auftreten, wenn man zwei separate gpu-konstrukte verschweist, statt einer gpu die doppelte zahl an ausführungseinheiten zu geben. denn du darfst nicht vergessen, die beiden teilgpus würden autonom arbeiten und müssten dann kommunizieren und die ergebnisse synchronisieren. und das kostet zeit und somit performance. dazu wären viele transistoren dadurch rendundant (da beite teileinheiten dann komplett doppelt ausgeführt wären statt nur der ausführungseinheiten), was mehrverbrauch und damit auch mehr abwärme erzeugt und die gesamtfläche der die vergrößert. und auch die problematik der synchronisation würde wie bei zwei separaten gpus zu mikrorucklern führen und bräuchte spezielle spieleprofile, damit das spiel auch beide kerne anspricht (lezteres ist wohl die einzige gemeinsamkeit mit multicore-cpus)

ihr müsst bei der überlegung ganz von der cpu wegkommen. eine gpu hat bereits sehr viele kerne. die logische steigerung wäre diese kernzahl zu erhöhen. wenn man aber einen chip mit einer zahl x kerne hat, dann ist das die grenze. dann kann man entweder einen größeren chip mit mehr kernen bauen, was aber eine entwicklung und produktionsumstellung erfordert, oder man nimmt die von mir genannten nachteile in kauf und baut zwei gpu zusammen. ob das nun auf dem pcb oder dem die passiert, ist dabei irrelevant.
 
wer sagt dann das eine verbindung 2er GPUs so Aufwendig wie Heute machen muss?

man könnte auch die I/O geschichten in einen Chip machen, und dann nur die Recheneinheiten in einzelnen Kernen aufteilen.
Gibt so viele möglichkeiten, was geht und was nicht, sollen uns die Entwickler Zeigen ;)
 
Zurück
Oben