News Erste genaue Details zu Nvidias „GT212“-Chip

Neocroth schrieb:
Zur News:

Die 60% an zusätzlichen Shadern sind meiner Meinung nach höchst unrealistisch - das Plus an TMUs kann ich mir eher vorstellen. Ich glaube nicht, das nVidia vom 3:1 Verhältnis abweichen wird, da man damit bisher sehr gut gefahren ist. Unvorstellbar wäre es natürlich nicht, wenn man im Auge behält, das nVidia stark in den GPGPU-Markt drückt.
Die höhere ALU-Leistung dürfte man vor allem für GPGPU (Cuda, OpenCL) anbieten. NV fertigt ja keine getrennten Workstation/Computing-Chips, sondern bedient mit den Spieler-GPUs auch den Produktivbereich. Vermutlich wäre es für NV zu aufwändig, zweigleisig zu fahren.
Außerdem scheinen die neuen Shadercluster im 4:1-Design sehr transistoreffizient zu sein, weshalb das Plus an Shaderleistung in Transistoren umgerechnet auch nicht sehr teuer für Nvidia ist. Der Spieler mag vom Plus an Shaderleistung vielleicht nicht soviel mitbekommen, aber für Computing-Zwecke wird NV mit dem GT212 sehr gut aufgestellt sein - sowohl in Punkto absolute Rechenleistung als auch in Punkto Rechenleistung pro Watt.

Zudem sorgt NV mit dem scheinbar ungleichen Verhältnis dafür, dass die GTX 295 für Spieler auch 2009 das Flaggschiff bleibt. Somit verärgert man nicht die eigene Enthusiast-Kundschaft.
 
Zuletzt bearbeitet:
40nm, das hört sich ja gut an. Ich brauche ja gar nicht so eine High Edn Karte. Mir würde ja schon ein Modell reichen, welches 50% schneller ist als meine 3870 und denselben Verbrauch hat.
 
brabe schrieb:
40nm, das hört sich ja gut an. Ich brauche ja gar nicht so eine High Edn Karte. Mir würde ja schon ein Modell reichen, welches 50% schneller ist als meine 3870 und denselben Verbrauch hat.
Das dürften dir wohl die Karten bieten, die auf dem GT216 von NV und auf dem RV740 von ATI basieren. Wahrscheinlich sind diese Chips sogar sparsamer als der RV770 auf deiner HD 3870.

Zu den Eckdaten:
deine HD 3870: 320 Shadereinheiten @ 775 MHz, 16 TMUs @ 775 MHz, 16 ROPs, 256 Bit Speicherinterface, GDDR3 @ 2,25 Gbps, Chipfläche: 193 mm²
RV740: 640 Shadereinheiten @ 750-850 MHz, 32 TMUs @ 750-850 MHz, 8 oder 16 ROPs, 128 Bit Speicherinterface, GDDR5 @ 3,6 bis 5 Gbps (somit gleiche Speicherbandbreite wie bei der HD 3870), Chipfläche: ~140 mm²
GT216: 160 Shadereinheiten @ 1450-1700 MHz, 40 TMUs @ 600-750 MHz, 12 oder 24 ROPs, 192 Bit Speicherinterface, GDDR3 @ 1,8 bis 2,2 Gbps (etwas weniger Speicherbandbreite als bei deiner HD 3870), Chipfläche: ~140 mm²
 
Zuletzt bearbeitet:
ExcaliburCasi schrieb:
ach, wegen der Produktionsgrößen

2001 hieß es von Intel: "15 statt bislang 20 Nanometer. Produktionsreif soll der Winzling 2009 sein." Link


:rolleyes:
Hättest du mal weitergelesen in deinem verlinkten Text:

Dieses Verfahren arbeitet mit einer Strukturbreite von 30 Nanometern, heute sind 130 Nanometer in der Serienfertigung Stand der Technik.
 
Laurin. schrieb:
(Bin kein Chip-Spezialist, meine Aussagen sind rein spekulativer Natur. Jemand mit mehr technischem Know-How kann mich gerne revidieren.)
  • Von den Leistungsmerkmalen scheint es nicht einfach ein weiterentwickelter GT200(b) zu sein. Der Unterschied der Spezifikationen ist in meinen Augen zu groß.
  • Nachdem NV anscheinend schon arge Probleme bei einem, im vergleich wohl deutlich einfacherem, 55nm Die-Shrink hatte. Ist es überhaupt denkbar das NV dann nochmal kleinere Strukturen bei gleichzeitig ansteigender Chipkomplexität innerhalb von nur 6 Monaten auf den Markt wirft ?
  • Performancetechnisch hat die GTX260 durch 24 mehr SP deutlich an Fahrt gewonnen. Der Sprung auf 384 müste daraus ja ein wahres Monster machen.
  • In gewissen Spielen mit gewissen Qualitätseinstellungen ist ja immer wieder die Rede vom "volllaufenden Grafikspeicher". Laut der News plant NV den Einsatz von GDDR5 (Was mich für den derzeitigen einzigen ?? Zulieferer Quimonda im übrigen freuen würde) aber gleichzeitig reduziert man das Speicherinterface. Werden wir trotzdem Grafikkarten mit 2 GB effektivem Grafikspeicher sehen ?

Man hat aus hardwaretechnischer Sicht lediglich die Anzahl der Shadercluster von zehn auf zwölf aufgestockt und verbaut pro Shadercluster jetzt 32 statt 24 Streamprozessoren.

Mit Nvidia und 55 nm ist das so eine Sache. Das Tapeout des GT200b war schon vor der Vorstellung des GT200. Der Chip sollte eigentlich im August/September letzten Jahres kommen, aber es gab hier einen sehr dummen Fehler, der nicht auf das Fertigungsverfahren zurückzuschieben ist - schreibt zumindest The Inquirer.

Und natürlich läuft die Entwicklung des GT212 völlig unabhängig bzw. parallel von der des GT200b. Deswegen mag es dem ein oder anderen jetzt schnell vorkommen. Ursprünglich waren GT200 und dessen Ableger von Nvidia im folgenden Zeitfenster angelegt:

Q4/2007: GT200
Q2/2008: GT200b
Q1/2009: GT212

Durch das 256 Bit breite Speicherinterface werden beim GT212 bspw. die Speichergrößen 512, 1024 und 2048 MiB möglich sein. Speicherinterface und -größe stehen hier in direkter Abhängigkeit.
Ich spekuliere, dass das Standardmodell 1024 MiB Texturspeicher haben wird.

Neocroth schrieb:
Die 60% an zusätzlichen Shadern sind meiner Meinung nach höchst unrealistisch - das Plus an TMUs kann ich mir eher vorstellen. Ich glaube nicht, das nVidia vom 3:1 Verhältnis abweichen wird, da man damit bisher sehr gut gefahren ist. Unvorstellbar wäre es natürlich nicht, wenn man im Auge behält, das nVidia stark in den GPGPU-Markt drückt.

Was ich mir auch nicht vorstellen kann: wie sollen 1,8 Milliarden Transistoren (trotz 40nm Fertigung) auf weniger als 300mm² passen? Wenn ich nur die Verhältnisse zwischen GT200 in 65nm und 55nm vergleiche (576mm² und 470mm²), dann sind schon 1,4 Milliarden Transistoren bei 40nm und 300mm² nicht ganz stimmig. Ich weiß nicht genau, wieviel Platz jeweils TMU und ein Shader brauchen, aber unter 400mm² kann ich mir das (besonders bei 60% mehr Shadern und 20% mehr TMUs) nicht vorstellen.

Wie kommst Du darauf, dass Nvidia mit dem 3:1-Verhältnis sehr gut gefahren ist? Das sehe ich nicht so.
Hebt man beim GT200 die Shaderdomain an, explodiert die Performance, hebt man dagegen Chip- oder Speichertakt an, ist kaum ein Mehrgewinn feststellbar. Die TMU-Performance ist schon seit dem G80 ausreichend; die GTX 260 hat z.B. eine deutlich geringere Texturperformance als die 9800 GTX+ - wenngleich man fairerweise ergänzen sollte, dass die GT200-TMUs effizienter arbeiten als die G92-TMUs.

Durch den Einsatz der 40-nm-Technologie halbiert sich gegenüber 55 nm ziemlich genau die Chipgröße (Faktor 0,5008). Den GT200 in seiner jetzigen Fassung sollte man also bei ungefähr 240 mm² in 40 nm ansiedeln können.
Zur Fläche: Beim GT200 belegen jeweils rund 1/4 der Gesamtgröße die 240 SPs und 80 TMUs, weswegen die Angabe < 1,8 Millarden Transistoren passt und damit auch die genannte Die-Größe < 300 mm².
 
Zuletzt bearbeitet:
Jetzt hab ich hier schon ein paar mal gelesen, dass es sich beim GT212 um ein Zwischenchip handelt zum GT300.
Bitte korrigiert mich wenn ich falsch liege, aber ich bin mir ziemlich sicher, dass es noch nie eine offizielle Bestätigung gab, dass Nvidias komplett überarbeiteter Chip GT300 heisen soll... Das waren doch bisher immer nur Vermutungen. Es sagt doch keiner, dass der GT212 die Next-Gen-GPU werden kann/soll.
Also ernsthaft. 400 Millionen Transistoren mehr (400.000.000) müssen doch mehr sein als ein simples Refresh. Dann noch die Verkleinerung auf 40 nm. Und der Wechsel auf GDDR5.
Und es sind noch keine Infos verfügbar ob DX10, DX10.1 oder sogar schon DX11 unterstützt wird.
 
Nein, es gibt noch keine Bestätigung, dass er GT300 heißen soll. Aber Namen sind Schall und Rausch. :D
Jeder weiß, wovon gesprochen wird, Nvidias Next-Generation-Chip.

Es heißt doch < 1,8 Millarden Transistoren. Und bedenke: 300-400 Millionen klingen zwar viel, sind relativ gesehen aber gerade mal ein Zuwachs von 20-25 Prozent.

Und nein, DirectX 10.1 wird, wie in der Quelle steht, nicht unterstützt. Könnte Computerbase noch in der News ergänzen, ja. ;)
 
Als ob man solchen markigen Vorankündigungen glauben schenken darf. Sicherlich werden die neuen Chips eine Verbesserung zu ihren Vorgängern darstellen, aber die Erwartungshaltung, die durch solche Vorabinformationen geschürt wird, dürfte höchstens von der Ernüchterung übertroffen werden, wenn sich die ersten Testexemplare durch die Benchmarkparcours quälen und der erhoffte Quantensprung ausbleibt, oder wenn sich der Release gleich um Quartale verzögert. Naja!
 
Hoffentlich bringt die Karte nen ordentlichen Leistungsschub.
Wenn man bedenke, dass die aktuell schnellste Single-Karte (GTX280) gerade mal ~50-60% schneller als die vor mehr als zwei Jahren erschienende 8800gtx, ist das schon ziemlich schwach.
Früher hat sich da irgendwie mehr getan.
 
Es ist doch eigentlich ganz simpel. NV hat den 55-nm-Start versemmelt, während ATI schon zwei Generationen in 55 nm ausliefern kann. Die 40-nm-GPUs scheinen dagegen bei NV im Zeitplan zu sein und erscheinen im Q1 2009 (Mainstream) und im Q2 2009 (Performance, High End).
Der GT212 stelt keine neue Generation dar, sondern ist einfach nur ein schon länger geplanter Refresh des GT200 mit mehr Performance und geringerer Verlustleistung bei unverändertem Featureset.
Vielleicht hat man schon den GT200 in 55 nm bringen wollen, jetzt erfolgt auf jeden Fall relativ stillschweigend der Wechsel von 65 nm auf 55 nm. Nur die GTX 295 und die GTX 285 werden als neue Produkte beworben.
Die 40-nm-Produkte wird man sicher nicht künstlich hinauszögern, deshalb kommen diese scheinbar auch sehr kurz nach den 55-nm-Produkten. Zudem will NV auch mal wieder eine komplette Produktpalette mit neuen Chips und einheitlichem Namensschema anbieten können.

Die neue Generation mit D3D11-Unterstützung kommt bei NV frühestens Ende 2009 und wird mehr Neuerungen bringen als nur mehr Ausführungseinheiten und eine schnellere Speicheranbindung.
 
bensen schrieb:
Warum nicht? der GT212 ist ja nicht erst seit gestern in mache. Der wird wohl spätestens seit dem G200 in Angriff genommen.
Was hat der 55nm Prozes mit dem 40nm Prozess zu tun?

Darum? hm, mal ganz Blöd, weil diese Passage etwa das gleiche Niveau hat :freak:
weil 40nm und 55nm kleiner als 65nm ist :freak:
Ich glaub du hast einfach Krankhaft was zu allem in meinem Post schreiben wollen weil dich 1 sache gestört hat? Naja, Spekulation ;)

bensen schrieb:
IMHO unwahrscheinlich. Dann hätten sie ja wieder so nen extrem großen Klopper. Ich würde mal behaupten es kommt kein größerer Chip mehr in 55nm.

IMHO also Wahrscheinlich, da Nvidia vorerst bei großen Chips bleiben will, was auch vernünftig wäre, Fläche will ausgenutzt werden.
Edit: Extra nochmal den Link
Ob er noch größer werden muss, wer weiß, ggf. ist noch Platz im Layout, ein großer Klopper wirds in jedemfall.

bensen schrieb:
Eine GTX285 wird wohl 155 GB/s Speicherbandbreite haben. Mit effektiven 5GHz GDDR5 wäre man mit nem 256bit SI bei 160GB/s. Sollte wohl reichen, bis das Teil produziert wird gibt es vll. schon schnelleren.

Ich weiß zwar wirklich nicht warum man auf vermutungen so Reagieren muss, aber von Flagschiff zu Flagschiff mit 3%-4% mehr Speicheranbindung, für mich eher weniger vorstellbar, ich erwarte da irgendwie mehr, bzw. wie gesagt, wer weiß wie hoch sie den GDDR5 bekommen ... vil. Hauts hin.




Natürlich Spekulieren wir hier alle nur, aber ich halte es für nahe liegend das wenn probleme bei 65nm auf 55nm bestehen, weiter auf 40nm zu gehen nicht unbedingt einfacher ist.
Mich würds freuen wenn sie bei 40nm n winzig chip rausbringen der nvidia wirtschaftlich stärkt und uns Monsterpower liefert, naheliegend find ich aber was anderes ;)



ascer schrieb:
das hast du aber etwas falsch verstanden^^

Okay, das passiert den besten :D

@Kisser
Ja schande auf mein Haupt, steinigt mich, oder haltet den Mund :rolleyes:
 
Zuletzt bearbeitet:
AndrewPoison schrieb:
Aber "schon" im Q2... da haben die neuen 55nm-Derivate kaum Lebenszeit.

Wieso "schon", April/Mai/Juni, kann doch locker Juli werden auch, bis die verfügbar sind.
Oder auch ruckzuck Herbst bei einem Problemchen hier und da mit 40nm noch.

Auf jeden Fall sicher nicht schon anfangs Q2, wenn sie erst jetzt noch 55nm bringen und sicher mehr als 2 Monate verkaufen wollen.
 
von mir aus sie können herstellen was wollen,aber bei mir zählt im endekt die leistung
 
Irgendwie finde ich es aber dennoch seltsam: Die Ausführungseinheiten usw. werden drastisch erhöht. Zugleich gehe ich mal von einem deutlich besserem Takt aus, was die Rechenleistung wiederum erhöht - und dann verharrt man auf der gleichen Speicherbandbreite? Wobei noch die Frage ist, ob ein GDDR5-256MBit Gespann genauso effizient ist wie ein GDDR3-512MBit Gespann. Ich meine auf gleichem Takt ist der GDDR3 ja schneller - wirkt sich dies auch auf die Kombination aus?
Zudem ist dann High-End GDDR5 gefragt, der sicherlich auch nicht ganz billig ist.
 
Hab da mal was in einer nicht näher bestimmten Wissenschaftszeitschrift gelesen. An irgendeinem Institut für Nanotechnologie (ich glaube es war in Dresden) entwickeln die den sog. "Graphen Prozessor" (die Betonung liegt auf dem e also grafeen ;) )
Das Ding wird aus Kohlenstoffnanoröhrchen hergestellt. Damit sollen Taktraten im Terrahertzbereich möglich sein. Ist als Alternative zu den Quantencomputern auch sehr wahrscheinlich (diese werden wenn überhaupt nur in der Wissenschaft und beim Militär zum Einsatz kommen).
Es ist denen schon gelungen entsprechende Röhrchen herzustellen. Allerdings z.Zt. noch von Hand und wahnsinnig teuer.
Der Kohlenstoff hat dann angeblich auch so gut wie keinen Stromverbrauch.
 
theorist schrieb:
Zu den Eckdaten:
deine HD 3870: 320 Shadereinheiten @ 775 MHz, 16 TMUs @ 775 MHz, 16 ROPs, 256 Bit Speicherinterface, GDDR3 @ 2,25 Gbps, Chipfläche: 193 mm²
RV740: 640 Shadereinheiten @ 750-850 MHz, 32 TMUs @ 750-850 MHz, 8 oder 16 ROPs, 128 Bit, GDDR5 @ 3,6 bis 5 Gbps, Chipfläche: ~140 mm²
GT216: 160 Shadereinheiten @ 1450-1700 MHz, 40 TMUs @ 600-750 MHz, 12 oder 24 ROPs, 192 Bit, GDDR3 @ 1,8 bis 2,2 Gbps, Chipfläche: ~140 mm²

Aber leider sind die Chips ja noch nicht draußen. Von daher muss ich halt noch warten
Das Tapout war am 17.12? Dann dauert es ja noch ein wenig bis die rauskommen
1-1080.1807239947.png

Leider habe ich von NVidia keine solche Grafik gefunden
 
Straputsky schrieb:
Irgendwie finde ich es aber dennoch seltsam: Die Ausführungseinheiten usw. werden drastisch erhöht. Zugleich gehe ich mal von einem deutlich besserem Takt aus, was die Rechenleistung wiederum erhöht - und dann verharrt man auf der gleichen Speicherbandbreite? Wobei noch die Frage ist, ob ein GDDR5-256MBit Gespann genauso effizient ist wie ein GDDR3-512MBit Gespann. Ich meine auf gleichem Takt ist der GDDR3 ja schneller - wirkt sich dies auch auf die Kombination aus?
Zudem ist dann High-End GDDR5 gefragt, der sicherlich auch nicht ganz billig ist.
Das 256-Bit-GDDR5-Speicherinterface erlaubt kompaktere und einfachere PCBs. Außerdem spart man sich noch ca. 5-7% an Chipfläche ohne dass die Speicherbandbreite geringer wäre als bei einem 512-Bit-GDDR3-Interface.
Die höhere Rechenleistung schadet auf jeden Fall niemanden und bei GPGPU könnte sie auch fast vollständig durchschlagen. Bei Spielen würde ich erstmal nur mit ~20% Mehrleistung gegenüber einer GTX 285 rechnen, sofern die Taktraten gleich ausfallen. Wobei die Taktraten @ 40 nm ja auch durchaus höher ausfallen können als @ 55 nm.
Der Flächenverbrauch dürfte gegenüber einem fiktiven GT200 @ 40 nm um 20-25% höher ausfallen und entspricht somit ungefähr dem Leistungsvorteil für Spieler. Im Computing-Bereich überwiegt der Leistungsvorteil den Flächennachteil sogar deutlich.
 
Zurück
Oben