News 5.000 Stream-Prozessoren und 20 TFlops bis 2015?

@ kasmopaya
glaube kaum, das sich die aufgaben der cpu so schnell auf gpus abwälzen lassen.
 
Zuletzt bearbeitet:
Toll braucht doch keiner fürs gamen.
Habe letztens noch einen Artikel in der Game Star gelesen das es mit der 3D Grafik nicht wirklich weiter geht weil es zu teuer wird sie zu Programmieren.
Und wen sie heute lieber Indie Games machen und in den nächsten 3-5 Jahren keine Spiele gemacht werden die eine doppelt so anspruchsvolle Grafik wie Crysis haben sehe ich irgendwie keinen bedarf für so starke Grafikkarten.

oder sehe ich was falsch ?
 
Ja tust du. Dir ist schon bewusst, dass andere Prozesse auch immer Leistung beanspruchen und das man diese über die Grafikkarte abwälzen kann.
Außerdem denke ich das bis 2015 soviel Zeit ist, dass es Spiele geben wird, die selbst das ausreizen.
Was hat Bill Gates nochmal gesagt...
Also das gleiche gilt hire. Mehr Power ist immer gut, denn wenn sie gegeben wird, wird es auch neues geben, dass diese Kraft zu nutzen weiß.
 
Jaja, die "PC-ler" haben 20Tflop grakas im rechner, und die konsole immer noch die selbe wie vor 10 jahren.... mensch... dann kann man ja aktuelle spiele auf maximalen details mit 300 frames laufen lassen ^^
 
SilentKill schrieb:
Toll braucht doch keiner fürs gamen.
Habe letztens noch einen Artikel in der Game Star gelesen das es mit der 3D Grafik nicht wirklich weiter geht weil es zu teuer wird sie zu Programmieren.
...
oder sehe ich was falsch ?
Ja. Viele der Verfahren die wir heute in der Spieleindustrie sehen sind bereits sehr lange bekannt. Es gibt noch viele mehr, die einfach aufgrund der mangelnden Rechenleistung nicht verwendet werden können und die werden natürlich von schnellen Grafikkarten programmieren. Durch die Integration dieser in praktische APIs wie DirectX oder OpenGL bleibt auch der Implementierungsaufwand gering.
 
Tyr43l schrieb:
@ kasmopaya
glaube kaum, das sich die aufgaben der cpu so schnell auf gpus abwälzen lassen.

Larabee kommt nächstes Jahr und bald darauf Larbee 2, der hat schon mal verdammt gute Chancen...

NV und ATI werden natürlich nicht nur zuschauen, sondern selber auch aktiv werden DX 11 macht den Anfang.
 
_Animal_ schrieb:
20TFlops? Ob wir damit endlich Raytracing in Echtzeit bekommen?

Whitted-style raytracing (also nur Primary Rays und Schatten) kriegst heute schon einigermassen vernünftig hin mit 100 GFlops (siehe Herr Pohls Spielereien), aber ich denke du meinst eher so mit unbiased GI usw all dem Spass - da würd ich nicht vor mehreren 100 TFLOPS anfangen zu hoffen, eher in Richtung Petaflops, wobei das wirkliche Hauptproblem die Memorylatency ist durch den komplett zufälligen Zugriff, und daran wird sich auf lange Sicht wohl nicht so viel ändern, sprich der Engpass wird sich wohl bald verschieben.
Und zuerst musst du eh definieren, was du als Raytracing in Echtzeit bezeichnest, bzw ab welcher Qualität du es akzeptierst, Realtime war schon lange möglich, nur sahs nach nichts besonderen aus.
 
Wir werden noch in unserer Lebenszeit erleben, dass die Entwicklung irgendwann stoppt, bisher hatte jede Technologie irgendwann eine Plateauphase erreicht, sei es wegen physikalischer oder ökonomischer Grenzen. Wie schon erwähnt wurde, allein die Kosten der Spieleentwickler werden dem Wachstum einen gehörigen Dämpfer verpassen.

Wird eine lustige Zeit, 10 Jahre den gleichen Grafikchip und Prozessor, die ganze fortschrittsgläubige Computercommunity wird in sich zusammenbrechen und man kann endlich wieder alte Spiele spielen, ohne Augenkrebs zu bekommen.
 
rony12 schrieb:
Jaja, die "PC-ler" haben 20Tflop grakas im rechner, und die konsole immer noch die selbe wie vor 10 jahren....


Ja und die eine von vor 10 Jahren ist die einzige im System und kann optimiert werden bis man blöd wird. Vergleich mal C64-Spiele von 1983 mit denen von 1993, das sind Welten und man hat Sachen hinbekommen, die niemand für möglich gehalten hätte.
Beim PC gibts dagegen 23748965913582093 verschiedene Systemmöglichkeiten und optimieren geht da einmal schwerer und 1x im Jahr ne neue Graka-Generation rausbringen bringt halt mehr Geld. ;)
 
Naja, solche Voraussagen hat man schon zu oft gehört. Ständig werden weniger nm angepriesen, aber am Ende wird das ganze dann um 6 bis 12 Monate verschoben. Aktuelles Beispiel auf dem Grafikkartenmarkt hängt TSMC bei 40nm fest. Im CPU-Bereich geht Intel frühestens 2010 mit 32nm ins Rennen, wobei die Beherrschund davon noch nicht 100% feststeht. Jetzt sagt irgend jemand man könnte das innerhalb von 5 Jahren auf etwa ein Drittel (11nm) runter bekommen.

Ich mag Theorien eigentlich - doch meistens scheitern solche hochgesteckten Pläne an der Praxis.
 
all-4-one schrieb:
Dass die Leistung steigt ist natürlich immer von Vorteil. Ich will aber auch stärkere Bemühungen im Bereich der Wärme- und Lautstärkeentwicklung, sowie der Energieaufnahme (besonders in 2-D) sehen.

Das seh ich nicht so eng. Mittlerweile gibts Onboard-Grafikkarten, die die Leistung einstiger Highend-Grakas überflügeln und dabei definitv weniger verbrauchen als diese. Ist natürlich eine Frage des Anspruchs, soll heißen, gibt man sich mit entsprechend runtergeschraubter Grafik zufrieden? Super Grafik auf riesigen Monitoren frisst nunmal entsprechend Leistung und die will auch bezahlt (in Form des Stromverbrauchs) werden.

Andi Macht schrieb:
... wird man nicht nur ein kleines Atomkraftwerk im Keller brauchen müssen um die Grafikkarte überhaupt betreiben zu können,...

Immer das Gelaber von Atomkraftwerken im Keller, so ein Quark. Ein popeliger Föhn zieht schon 2000W, Staubsauger genauso. Da hör ich auch kein Gequatsche von Atomkraftwerken im Keller.

dahum schrieb:
Wird eine lustige Zeit, 10 Jahre den gleichen Grafikchip und Prozessor, die ganze fortschrittsgläubige Computercommunity wird in sich zusammenbrechen und man kann endlich wieder alte Spiele spielen, ohne Augenkrebs zu bekommen.

Kann man doch heute schon. Hab grad Mechwarrior 4 wieder rausgekramt, das kam vor über 8 Jahren raus und sieht immer noch ganz gut aus (wobei es natürlich besser sein könnte). Jagged Alliance geht auch immer wieder und neben Warcraft 2 und Starcraft würden mir auch noch mehr Spiele einfallen, die man immer noch prima spielen kann. Bloß bei Egoshootern gehts teilweise echt nicht mehr bei älteren Spielen, aber CoD2 hat mir letztens auch wieder Spaß gemacht, da ist die Grafik bereits absolut ausreichend.
 
MrBanana schrieb:
Wie hoch der Verbrauch sein wird ? Ob wir dann alle 2000w Netzteile haben ? 12 Core-CPUs ? Alle mit coolen 3D Brillen und "runden" 40 Zoll Monitor ?


OT: Vielleicht wird Larrabee dann auch schon raus kommen, ich meine 2015 ist eine faire Einschätzung für den Release, sollte also ein gutes Jahr werden. :D


Warum 2015 ? 2009 ist doch schon alles da :)

monitor:


http://blogulate.com/wp-content/uploads/2008/01/wraparound-ces2008-lcd-tft-screen.jpg


Brille:

http://www.3dvisor.com/products.php

Netzteil:

https://www.computerbase.de/news/netzteile/ces-vorstellung-eines-2000-watt-netzteils.18013/

Naja der 12 Core dauert noch ca. 1 Jahr:

http://thefutureofthings.com/news/1255/amd-12-core-processor.html


:cool_alt::cool_alt::cool_alt:
 
Ich denke auch das zumindestens das Grafik Highend auch nichtmehr wesentlich weitersteigen wird in der Stromaufnahme und das trotz hohen Leistungssteigerungen , das muss man bedenken. Die Effizienz steigt nachweislich .
 
@Garack: danke für den Link des Netzteiles die Firma kannte ich noch nicht, scheint ja nicht schlecht zu sein die Netzteile der Firma.
 
@ KAOZNAKE

Vorallem weil du dich ja 10 Stunden am Tag föhnst und 10 Stunden staubsaugst? :lol:
Muss man deswegen den "Stromverbrauch" eines PC Systems, welches bald locker die 1KW Marke überschreitet befürworten?
 
32nm ist doch schon so gut wie fertig, und wenn mich nicht alles täuscht will Intel den Clarkdale Ende Jahres noch auf'n Markt werfen. In 2 Jahren will Intel bei 22nm sein, und falls es so weiter geht sind wir 2013 bei 16nm und zwei weiter Jahre wäre dann die 11nm Produktion erreicht, wenn wir da noch ein paar Monate drauf rechnen, wären wir bei spätesten Ende 2016 so weit. Ich glaube nicht das der Computer Markt bzw. Grafikkarten Markt jemals in der Entwicklung stehen bleibt, es wird immer eine Leistungssteigerung geben, wie die am Ende erreicht wird, ob mit Silizium oder etwas anderem, ist dabei völlig egal. Stagnation heißt Rückschritt.

Was den Stromverbrauch angeht wird es da auch nicht mehr sonderlich mehr werden, wenn wir die 300 Watt betrachtet halte ich das schon für verdammt viel. Vielleicht werden es im HighEnd auch noch 400 Watt, aber mehr auf keinen Fall, das kann ich mir beim besten Willen nicht vorstellen das die Endverbraucher sowas hinnehmen bzw sowas in größeren Menge verkauft wird, oder wie sieht das mit SLI und CrossFire aus. Durch die Verkleinerung wird der Verbrauch ja auch weiter gesenkt, sonst würden unsere Mehr-Kern-CPUs im Vergleich zu den CPUs von 2003 (Athlon 64 & Pentium 4 mit ca 90 Watt) auch schon bei 300 Watt und mehr liegen und nicht bei um die 100 bzw 65 Watt für die sparsameren Modelle.
 
@KAOZNAKE

Naja, Call of Duty's Engine ist auch hängen geblieben, siehe: CoD5 :freak:



Ich glaub kaum, dass irgendein Spiele Hersteller sich so viel mühe geben wird... so dass wir neue Hardware brauchen werden.:rolleyes: (ausser CRYTEC);)
 
Zurück
Oben