News Nvidia: GPU in sechs Jahren 570 Mal schneller

ich denk 570 mal ist bissel sehr hoch gegriffen ... ich lass mich aber gern vom gegenteil überzeugen
 
Konti schrieb:
Gerade wenn man einen Satz auf verschiedene Art und Weise interpretieren kann, sollte man doch umso vorsichtiger mit dem Übersetzen sein, und nicht die erstbeste, reißerischste Übersetzung als "Fakt" abdrucken.

Ja gut, aber die in der CB-News dargestellte Interpretation ist ja eigentlich von den meisten Seiten so auch genommen worden. Ich denke das Problem ist eher, dass man die Rede von Huang besser im Wortlaut hätte hören sollen, so basiert halt alles auf der News von TG Daily.

Natürlich meint er auch nicht, dass die GPU allgemein 570 mal schneller wird, sondern eben in den Bereichen, die derzeit noch von CPUs berechnet werden, dieses Potential hat. Beispiele nennt er ja. Ist das eher eine Unklare Marketingaussage, wohl vorallem an die Nutzer von Supercomputern usw. gerichtet? Vermutlich ja. Haben es trotzdem alle Mainstream-Seiten übernommen? Natürlich.
 
Vergleicht doch mal heutige GraKa mit denen von vor 6 Jahren. Dann rechnet neue Technologien mit ein und man kann in etwa extrapolieren, um wieviel stärker die in den kommenden 6 Jahren werden können.
Andere Frage: Wenn die Dinger so sehr viel schneller stärker werden als CPU's, warum dann nicht ein System auf den Dingern aufbauen und CPU's als Zusatz einbauen?
 
Stahlseele schrieb:
Andere Frage: Wenn die Dinger so sehr viel schneller stärker werden als CPU's, warum dann nicht ein System auf den Dingern aufbauen und CPU's als Zusatz einbauen?

GPUs sind CPUs nur in bestimmten Bereichen überlegen (dann wenn massive Parallelisierung möglich ist).. ein Betriebsystem oder auch andere viele Programme lassen sich dadurch nicht beschleunigen bzw. mit heutigen Karten auch garnicht ausführen...
 
@Mallar: das ist wahr, allerdings wäre es vorstellbar, dass das betriebssystem auf einer minimalistischen cpu ala atom ausgeführt würde und software auf die massive parallele rechenleistung von gpus optimiert würde. so jedenfalls sieht es nvidia.
allerdings wäre das imho auch nicht die ideale lösung, da cpus in einigen bereichen durch ihre vielseitigere architektur und die befehlssatzerweiterungen einige unschlagbare vorteile zu bieten haben. so leicht kann das eine nicht das andere ersätzen. allerdings kann sich der schwerpunkt durch zuständigkeitsverschiebung verändern. so könnte man viele prozesse, die von parallelisierter leistung profitieren, auf die gpu verlagern, um so rechenleistung zu gewinnen. das würde wohl auch das wachstum der kernzahl bei cpus wieder beschränken, da dann mehr als 4 kerne wohl keinen wirklichen nutzen mehr bringen würden, weil die entsprechenden parallelisierbaren berechnungen dann ja nicht mehr auf der cpu stattfinden würden, sondern auf der gpu.
aber das ist nur ein mögliches szenario. intel würde es am liebsten umgekehrt machen, und aufgaben der gpu durch befehlssatzerweiterungen mit in die cpu verlagern, was imho aber weit weniger sinnvoll wäre, da die meisten aufgaben der gpu aus massig parallelisierbaren aufgaben besteht, welche eine cpu wohl niemlas in vergleichbarem tempo abarbeiten könnte, es sei denn sie hätte ähnlich viele kerne wie die gpu shader zur verfügung. bei derzeit 240 shader (nv) bzw 800 (theoretische) shader (ati) und steigender tendenz ist das aber wohl eher unwahrscheinlich.
 
Hat NV sich da etwas verhauen mit der angabe der Jahren und eine 0 hinter der 6 vergessen? :D

Grade NV bei denen seit fast 2 Jahren nur relabeling durchgeführt wird sollte den mund nicht so voll nehmen.

In 6 Jahren die 570 fache menge von irgendwas ist utopisch. weder prozessoren, noch bandbreite oder transistoren werden um den faktor steigen können. Aber wenn Intel schon so lustig in die zukunft sehen kann dann kann nvidia das auch :rolleyes:

Realität dürfte eher sein das die entwicklung langsamer voranschreiten wird, die zeiten in denen man beispielsweise die taktfrequenz der CPU in 20 Jahren um den faktor 3000 erhöhen konnte sind lange vorbei.
 
@wazzup: schau dir auch mal den link aus meinem post #141 an. von der 6800 zur gtx285 sinds ohne aa/af mehr als 2000%. was spricht dagegen, dass die entwicklung so weitergeht. und das die entwicklung bei nv in den letzten zwei jahren in sachen geschwindigkeit eher mäßig vorran ging, hängt mit der marktsituation zusammen. der g92 (8800gs/9600gso bis gts250) ist noch immer nicht ausgereizt und die gts250 liegt je nach spiel zwischen der 4850 und der 4870. laut roadmap hat nvidia noch einen g92 in 40nm geplant. wenn sie so schlau sind und den speicherkontroller für gddr5 modifizieren, könnte eine solche karte theoretisch selbst eine gtx285 alt aussehn lassen...
 
Lübke
Der Link zeigt das Performancemittel der getesteten Karten in den getesteten Spiele(szenen) in den getesteten Settings.

Der Link zeigt keine allgemeine Performancesteigerungsaussage.
0 zu 63 FPS ist eine unendliche Leistungssteigerung. Dieses Resultat wurde bunt beigemischt, genausogut hätten es 10 Spiele mit 0 FPS sein können oder 0 Spiele mit 0 FPS.


wazzup
Man merkt, das du einige Zeit geschlafen hast.
Alleine die Betrachtung der ALUs, sollte dir die Augen öffnen:

128 SP ALUs vs 240/2x240 SP ALUs + gesteigerte Effizienz
0 DP ALUs vs 30/2x30 DP ALUs (oho unendliche Steigerung)

Aber bitte, glaub ruhig weiter das AMD nach 3 Anläufen immer noch hinter der umbenannten, 3 Jahre alten 8800 GTX herhechelt.
 
@Lübke: Ja, wird man wohl abwarten müssen wohin sich die Sache entwickelt...CPU eher als Verwaltungsorgan und Graka für viele/die meisten Berechnungen, oder eben CPUs mit viel mehr Kernen...wobei die es wohl nicht unbedingt mit Grakas aufnehmen könnten in jedem Aufgabenfeld. Mal sehn was Intel so auf Lager hat ;)
Meiner Meinung nach kann es jedenfalls nicht schaden das GPGPU Computing weiter auszubauen und mehr Programme die Graka benutzen zu lassen... OpenCL geht da ja schon einen guten Weg...muss sich eben "nur" auch etablieren...
 
Halte diese Aussage auch sehr für spekulativ!

In den letzten 2 Jahren hat sich zwar viel getan,aber wie will Nvidia das umsetzen?
So viel Ahnung habe ich nun auch wieder nicht,aber vieleicht wird das auch im GPU Bereich mit mehreren Cores auf einer Platine weiter gehen.

Meine ganz eigene Interpretation:

In 5 bis 6 Jahren gibts dann Grakas mit bis zu 64 oder 128 Cores auf einem Chip.Im Moment noch gar nicht vorstellbar,was das für Endresultate hervor bringt.

Mehrkernprozessoren gewinnen ja langsam aber sicher immer mehr an Bedeutung,sei es im Server Segment,wo Mehrkerner ja schon länger Standard sind,aber auch der Home Sektor wird immer mehr dazu kommen.Vor 2 Jahren sagte auch noch jeder,das Dual Cores fürs Zocken lange ausreichen werden und was hört man heute? Auf jeden Fall Quad damit du perfekt zocken kannst.Und diese Zeit ist auch bald vorbei.Wenn AMDs Sechkerner für den Home Bereich auf den Markt kommen dan werden für die Hardcore Gamer wieder neue Maßstäbe gesetzt.Intel wird nachziehen.Genauso ähnlich wird es dann im Graka Markt laufen.

Die Zeit des Mehrkernkrieges hat gerade erst begonnen,egal on AMD Intel Nvidia oder ATI.,)

Greetz!

Ps.Und hoffentlich nimmt der SLI und Crossfire Wahn bald ein Ende.Diese Stromfresser halte ich schon heute für absolut überflüssig.Wers sich leisten kann ok,aber ein bischen Grüner denken ist ja für die Hersteller ein wichtiges Argument für die Zukunft.
 
irgendwann schrumpfen die pcs mit der gesamten hardware auf die größe einer streichholzschachtel, hat die 1000 fache leistung wie jetztige geräte, aber nur 100 mw verbrauch und nen wireless usb anschluss :) bis dahin vergehen bestimmt noch 30 jahre xD
in 30 jahren lachen die über unsere technik, so wie wir gerde über die leistung eines 386-ger pcs lachen...
 
Lübke schrieb:
@Henrico: aktuelle grafikkarten haben schon 128 cores (gts250) und mehr (gtx275 = 240 cores, 4890 = 800 theoretische cores)

Vieleicht hab ich mich nicht gerade geschickt aus gedrückt.Ich rede von realen Kernen so wie bei CPUs.

Also heute z.b. HD4850 X2 in 5 oder 6 Jahren HDxxxx x64 oder x128

oder z.b. GTX 295 in 5 oder 6 Jahren xxx 860 x 128 :evillol::evillol::evillol:


Reine Spinnerei nicht zu ernst nehmen :freak:


Greetz!
 
ich weis schon, was du meintest, aber das mit den zwei gpu hat nur einen vorteil: der hersteller muss keine neue gpu mit mehr einheiten bauen. zwei gpus mit je 128 shader sind aber deutlich langsamer als eine mit 256 shader, von problemen wie mr mal ganz zu schweigen. zwei gpu werden immer nur dann auf eine karte geklatscht, wenn eine für die performancekrone nicht reicht. ansonsten ist sowas eher sinnfrei.
bei einer cpu ist das was anderes, da können zwei ausführungseinheiten einen erheblichen vorteil bringen.
 
Zuletzt bearbeitet:
Zurück
Oben