News Kommt Nvidias GK110 für Desktop-PCs nicht vor März 2013?

Ball_Lightning schrieb:
Wird dieses Thema schon wieder aufgewärmt... der GK110 ist niicht der Highend-Desktop Chip sondern der Highend-GPU-Computing Chip. Es war klar, dass das Derivat für den Desktop noch länger dauern wird.
Die beiden nehmen sich nichts, und es war übrings in der Vergangenheit anders. Ein Release nach 8000 ist aber wie immer wahrscheinlich.
 
aylano schrieb:
Dass man mit einen 500mm²-Chip in einer neuen Fertigung nicht mehr starten kann, hatte ich die letzten 1-2 Jahre oft genug auf dieses Problem hingewiesen, auch wenn ich oft genug auf Fanboy bezeichnet wurde..

Du musst unterscheiden zwischen kann und "kann" - letzteres gleicht mehr einem "will" und das Will muss hoch wirtschaftlich sein.

Beide, sowohl der Nachfolge AMD Chip als auch der GK110 sind fertig. Zu 100%. Die Architekturen/das Design stehen vermutlich sogar ca zeitgleich mit dem von Tahiti als auch GK104.

Natürlich kann man beide produzieren, auch in einem neuen Prozess (28nm) - aber wirtschaftlich ist was anderes. Was nutzt es Nvidia/AMD wenn sie genauso gut 3x so viele kleine Chips wie GK104 verticken können, zu Preisen die sonst ein 500mm² Monster kosten würde.

Schau dir das PCB der GTX670 an... gerade rechnen sich die GPU Verkäufe extrem, trotz des so teuren neuen 28nm Prozess. Die Chips sind klein, die Preise knackig, das Layout billig.

Gehen tut viel mehr als man denkt. Das gilt für Nvidia als auch AMD.

Wären beide Vollausbauten bereits draußen könnte man bis 20nm praktisch nichts drauf setzen. Für beide läuft es gut, die heutigen High End Modelle sind praktisch gleich auf -> man kann Preise hoch halten. Keiner wird hingehnen und nun die Karte preislich senken. Nicht in großem Stil außer man hat Chips im Überfluss. Die Erste Preiswelle kam ja erst... nach 6 Monaten Marktpräsenz mit den Chips und höherer Kapazität auch logisch, aber weniger wegen massivem Preiskampf, eher um den Absatz etwas anzukurbeln.
 
Zuletzt bearbeitet:
Auf die Gefahr hin, dass ich mich trollen lasse:
"Wenn [...] geworfen würden" ist doch ganz normales Futur I im Konjunktiv, nor?
 
Krautmaster schrieb:
Ich spekuliere auf knapp 3000 Shader bei AMDs neuem Chip und auf ca 1536-2XXX beim Nvidia GK110.
Schon der GK104 hat 1536 ALUs und 256 Bit, der GK110 hat 2880 ALUs und 384 Bit.
 
Der GTX 680 ist bei DP Berechnungen nur halb so shnell wie eine GTX 580. Die Die ATI 7970 ist ca 8x so schnell bei DP Berechnungen wie eine GTX 680.

Ich warte schon die ganze Zeit auf den Nachfolger. Es kann doch nicht sein das die neuen Kepler Karten langsamer sind als die Fermie Karten.
 
Vor allem hat man beim GK104 noch argumentiert, dass es sich um einen reinrassigen Gamer-Chips handelt, bei dem GPGPU-Ballast bewusst weggelassen wurde. Mit dem GK110 ist diese Argumentation (angeblicher Vorteil) dann praktisch wieder obsolet, "echter" Gamer High-End darf dann wieder Strom saufen und GPGPU-Einheiten mit an Board haben.
 
@y33H@

joa, ich rechne auch mit 2880, wollte aber pauschal nicht ganz so hoch greifen. Aber jap, die 1536 waren Schachfug.

@bigot

hä? Die GPGPU Leistung zeigt einem doch schon dass der GK104 mit GPUComputing nicht sonderlich kann. Dafür bietet er mehr Perf/mm². Es gibt auch keine Tesla Karte mit GK104 wenn ich mich nicht irre. Immer der Vollausbau einer Fertigung kommt als Tesla.
 
Ich weiß gar nicht, was ihr alle habt. Es wurde höchste Zeit, dass die Grafikkarten mal wieder gesund geschrumpft wurden. Die Dinger wurden immer länger, die Kühler größer und lauter und die Karten liefen trotzdem heiß. Das konnte nicht ewig so weiter gehen.

Vivster schrieb:
und schon kann ich meine Graka in die Tonne kloppen^^
Ja leider. Sobald die GTX 780 draußen ist kannst du mit deiner Karte nie wieder spielen. Es wär einfach moralisch falsch, eine Grafikkarte mit schweren Depressionen zum Spielen zu zwingen.
 
Krautmaster schrieb:
Die heutige Situation ist also recht "ungewohnt". Ich denke der GK110 wäre bereits da wenn sich die HD7970 deutlich(10-25%) hätte von der GTX680 absetzen können was sie aufgrund der Größe& Verbrauch auch hätte können.

Glaub nicht, dass der GK110 schon auf dem Markt wäre, wenn die HD7XXX-Serie stärker wäre. Es macht keinen Sinn einen Chip im Regal zu lassen, der die Konkurrenz angeblich "einstampfen" würde. Wenn er fertig ist, dann auf den Markt damit und die Konkurrenz wird kräftig die Preise senken müssen.
Je länger Nvidia warten, desto näher kommt der neue Produkt von AMD und desto geringer ist der Wettbewerbsvorteil. Und wenn das Problem die Fertigung ist, so wäre der Chip auch nicht auf dem Markt, selbst wenn AMDs HD7970 10-25% schneller wäre. Wäre so oder so nicht möglich.
 
Brandkanne schrieb:
...Aber die GTX680 als 'Performance-Karte' anzupreisen ist von nVidia geschicktes Marketing und von jedem der das ebenfalls so sieht einfach nur naiv. ...

Wann hat Nvidia selbst das denn jemals offiziell behauptet? Die tun doch alles, um die GK104-basierten Karten als High-End zu vermarkten. Sie verlängern sogar künstlich das PCB der GTX670, damit sie wie echte High-End-Karten aussehen. Das müssen sie allein schon deshalb tun, damit sie für die Karten High-End-Preise verlangen können.

Dass die GK104 in Wirklichkeit eine Performance-GPU ist, sieht man, abgesehen von sowas naheliegendem wie dem Namen, aber schlicht und einfach an den technischen Spezifikationen. Sie ist genauso eine 300mm^2-, 256Bit-SI-GPU, wie die GF114 (GTX560) davor und davor die GF104 (GTX460) usw.

Die High-End-GPUs von Nvidia waren seit der G80 immer 500mm^2-Chips mit 384Bit-SI. Eben genau die Größenordnung, die auch die GK110 den Gerüchten zu folge hat.

Und wie schwer es Nvidia jetzt fällt, nachdem sie die Performance-GPU GK104 spontan zum High-End "befördert" haben, irgendwie schnell Performance-Karten aus dem Hut zu zaubern, sieht man ja in den letzten Wochen wunderbar.

Hätte Nvidia die GK104 von Anfang an als High-End geplant, dann hätten sie auch darunter sofort eine Performance-GPU parat gehabt, um dieses wichtige Marktsegemnt zu bedienen. Diese GPU fehlt jetzt aber immer noch komplett!
Statt dessen muss die arme GK104 von der GTX690 bis runter zur kleinen GTX660 herhalten. Sowas gab es bisher bei Nvidia oder auch AMD noch niemals. Und letztere Karte erschien auch erst nach reichlicher Verspätung, bzw. ist offiziell immer noch nicht draußen, was zeigt, dass Nvidia hier wild improvisieren musste.

Ergänzung @ Rick_Danger:
Selbstverständlich kann es sinnvoll sein, eine GPU zu verschieben oder eher gar nicht raus zu bringen.

Stellen wir uns folgendes Szenario vor:
Nvidia hätte 2009/2010 AMDs Evergreen-GPUs (HD5800er) mit der GF104 kontern können. Sie hätten die Gelegenheit gehabt, die problematischen GF100-Fermis gar nicht auf den Markt zu bringen, sondern statt dessen die effizienteren GF104 in sogenannten GTX480 und GTX470-Karten zu verbauen und zu üblichen High-End-Preisen zu verkaufen.
Mit den eigentlichen High-End-GPUs hätte man sich dann ein weiteres Jahr Zeit bis zur überarbeiteten GF110 (GTX580) gelassen, die eine deutlich bessere Figur als die problematischen ersten GF100 macht.

Nvidia hätte so nicht nur Kosten gespart, sondern auch eine Menge schlechte PR vermieden. Die ganzen "Thermi"-Witzeleien usw. Aber damals waren AMDs GPUs halt so stark, dass die kleine GF104 sie nicht hätte kontern können. Nvidia brauchte die große GF100 um mit vorne dabei zu sein
Diesmal reicht die ebensokleine GK104 aber gegen Tahiti aus. Also hat man die GK100 eingestampft und bringt zur nächsten Generation gleich die GK110.

Wie gesagt, ich wette, Nvidia hätte es 2009/ 2010 gerne genauso gemacht.
 
Zuletzt bearbeitet:
Die High-End-GPUs von Nvidia waren seit der G80 immer 500mm^2-Chips mit 384Bit-SI. Eben genau die Größenordnung, die auch die GK110 den Gerüchten zu folge hat.

Das macht deine Argumentation jetzt nicht unbedingt schlechter - wollte aber nur mal die 512bit der GTX280/85 anmerken. Aber das unterstreicht deinen Punkt sogar noch - denn: High End war immer definitiv dicker als 256bit SI. Und das seit dem G80, der immer noch der Urvater der aktuellen nV Architekturen ist (dort führte man vieles ein, das heute noch in verbesserter Form verwendet wird).
 
Krautmaster schrieb:
Ich denke der GK110 wäre bereits da wenn sich die HD7970 deutlich(10-25%) hätte von der GTX680 absetzen können was sie aufgrund der Größe& Verbrauch auch hätte können.
[...]
was hätte wäre wenn lässt sich schwer sagen
wer im Glashaus sitzt...

Davon ausgegangen, dass der GK110 noch dieses Jahr kommt, bin ich nie (und wenn ich Recht behalte gewinne ich eine Flasche Laphroaig Tripple Wood :freaky: ). Die hatten zu viele Probleme schon mit dem kleineren GK104 und der Fertigungs (sonst wär auch der früher raus gewesen).

Ob der GK110 soo viel schneller wird, wie einige Fanboys sich erhoffen, glaube ich nicht. Der wird hauptsächlich beim GPU-Computing wieder zu AMD aufschließen und evtl auch überholen (das kann Tahiti ja richtig gut). Wenn der GK110 schon im Frühling gekommen wär, bezweifel ich sogar, dass der überhaupt relevant mehr Leistung gehabt hätte abgesehen von solchen Spielereien wie Tesselation und Co.

@Herdwar: Wenn Nvidia eine wirklich bessere GPU parat gehabt hätte, hätten die diese auch gebracht. Sieht man ja auch an der GTX8000 von damals. DIe hatten klar das bessere Produkt (mit Abstand) und auch keine Anstalten gemacht dieses auf Grund des schlechten Abschneidens der 2900XT nicht weiter auszubauen durch noch etwas schnellere Ableger.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Du musst unterscheiden zwischen kann und "kann" - letzteres gleicht mehr einem "will" und das Will muss hoch wirtschaftlich sein.
Mit etwas Wissen würdest du vestehen was ich sage.
Seit G92, GT200A, GT200B, GF100 waren schon verspätet.
G92 konnte man mit GT8000 ohne Verspätung mithalten. (will)
Selbst GT200A war schon etwas verspätet, aber da viel es nicht mehr auf. (will)
GT200B2 konnte auch erst im Dez geliefert werden, während GT200B3 aus wirtschaftlich gründen gemacht wurde.
GF100 konnte genauso nicht im Herbst wie Jänner gebracht werden. Erst im April konnten sie ihn unwirtschaftlich am Markt bringen.

Bei den ganz große Dies konnte Nividia schon lange nicht ihrer GPUs rausbringen, wann sie es wollten, sondern wann sie es wollten. Seit GT200b gibts es jedes mal das ständige warten und bis heute will man das so nicht wahrhaben.

Nvidia hat keinen Grund mehr zu warten. Wenn du deine Aussage ernst nimmst, dann würde Nvidia heute schon GK110-Tesla am Markt bringen, weil AMD seit gestern die Double-Precise-Rohpower-Krone besitzt und dort die Margen am höchsten sind. Aber auch dieser soll erst im 4Q kommen, was eben zeigt, dass Nvidia erst im 4Q 2012 die GK110 rausbringen kann und im 2Q 2013 GK110 vielleicht wirtschaftlich rausbringen will.

Die Verschiebung zeigt die Probleme von Nivida, weil GK104 nicht so effizient ist, wie es viele hier beschwören. Klar, ist man 256Bit und 4 statt 6GB gerade noch effizienter als Thaiti, aber mit höheren SI und mehr Arbeitspeicher sieht die Welt wieder anders aus, wenn die ganzen GPGPU-Einheiten dazukommen, dann dreht sich das erst recht ins umgekehrte. Und Kepler solle ja ein kleines Double-Precise-Monster werden und wenn GK110 mehr zur Server-GPU wird als früher, dann wird die Effizienz in Games im Vergleich zu GK104 kaum gehalten werden.
 
Will ich doch hoffen, dass die nicht vor März 2013 erscheint, gerne auch später.
Hab mir ja erst vor ein paar Tagen eine 680er gekauft, bin echt die Ungeduld in
Person :lol:
 
[F]L4SH schrieb:
...wollte aber nur mal die 512bit der GTX280/85 anmerken. ...

Stimmt. An die hatte ich nicht gedacht. :)

Das war ein Sonderfall, weil Nvidia damals länger als AMD an GDDR3 auch für die großen GPUs festgehalten hatte. Da musste dann notgedrungen ein breiteres SI her, um den wachsenden Bandbreitenbedarf der leistungsfähigeren, großen GPUs zu decken.
Erst mit dem Sprung auf GDDR5 konnten sie dann wieder auf "nur" 384Bit zurück gehen.

Bei der aktuellen Kepler-Generation hat es aber keinen solchen Sprung zu einer neuen Speichertechnik gegeben. Es ist immer noch, wie bei Fermi, GDDR5.
An dem Umstand, dass eine echte High-End-GPU viel Speicherbandbreite braucht, hat sich nichts geändert. Das sieht man ja auch an AMDs Tahiti, die ebenfalls auf 384Bit setzen.

Das 256Bit-SI ist auch bei den kleinen GK104 schon ein gewisser Flaschenhals und dementsprechend wird sie auch genau da weiter abgewürgt, um sie für die improvisierten Performance-Karten dieser Generation leistungsmäßig zu beschneiden.

Eine echte High-End-Kepler-GPU hätte zweifelsfrei mindestens wieder ein 384Bit-SI, die üblichen 500mm^2 Chipgröße und eine TDP Richtung gerade aktuelle PCIe-Spec-Maximum (derzeit 300W).
 
Herdware schrieb:
Ergänzung @ Rick_Danger:
Selbstverständlich kann es sinnvoll sein, eine GPU zu verschieben oder eher gar nicht raus zu bringen.

Stellen wir uns folgendes Szenario vor:
Nvidia hätte 2009/2010 AMDs Evergreen-GPUs (HD5800er) mit der GF104 kontern können. Sie hätten die Gelegenheit gehabt, die problematischen GF100-Fermis gar nicht auf den Markt zu bringen, sondern statt dessen die effizienteren GF104 in sogenannten GTX480 und GTX470-Karten zu verbauen und zu üblichen High-End-Preisen zu verkaufen.
Mit den eigentlichen High-End-GPUs hätte man sich dann ein weiteres Jahr Zeit bis zur überarbeiteten GF110 (GTX580) gelassen, die eine deutlich bessere Figur als die problematischen ersten GF100 macht.

Nvidia hätte so nicht nur Kosten gespart, sondern auch eine Menge schlechte PR vermieden. Die ganzen "Thermi"-Witzeleien usw. Aber damals waren AMDs GPUs halt so stark, dass die kleine GF104 sie nicht hätte kontern können. Nvidia brauchte die große GF100 um mit vorne dabei zu sein
Diesmal reicht die ebensokleine GK104 aber gegen Tahiti aus. Also hat man die GK100 eingestampft und bringt zur nächsten Generation gleich die GK110.

Wie gesagt, ich wette, Nvidia hätte es 2009/ 2010 gerne genauso gemacht.

Ich glaub das sind zwei verschiedene Dinge, die wir meinen. Du schreibst damals war Nvidia gezwungen den "schlechten" Chip zu bringen, weil AMD so stark war. Das ist was ganz anderes, als den "Überflieger" Chip bewusst zurückzuhalten. Das macht einfach keinen Sinn. Der ist definitiv noch nicht fertig.
 
Je mehr man solchen journalistischen Tobak ließt, desto eher schleicht sich das Gefühl ein, dass der GK110 schon jetzt zur Legende stilisiert werden soll.

Ich finde es ließt sich wie Schönfärberei. Nach dem Motto: "Hey! Die haben noch richtiges HighEnd für euch in Petto, nur leider kommen die erst vll. Q2 2013 um die Ecke damit"

Man kann sich noch so durch den technischen Background und die Typenbezeichnungen wuseln bei NV. Leider ändert es nichts an der Tatsache, dass der GK104 für Endanwender zu HighEnd Preisen verkauft wird, was ihn für mich aktuell zu NVs HighEnd Lösung für den Desktop macht.


Eigentlich macht mich diese Nachricht sehr nachdenklich. Wenn AMD mit der HD8xxx Q4 2012/Q1 2013 um die Ecke kommen sollte, sich die Preise aber nicht langsam nach unten bewegen, können die das Preisniveau wiedermal vorbildlich hoch halten.
 
Schön zu lesen wie alle schon wissen, was noch 2012 und 2013 für Gpu`s erscheinen und wie schnell die dann sind.
Leute.... Leute ....
Anstatt zu spekulieren wer im nächsten Jahr den längsten hat, solltet ihr euch lieber
vor die Kiste setzen und eure aktuellen Karten mal rauchen lassen...
 
Zurück
Oben