News Erste genaue Details zu Nvidias „GT212“-Chip

Hm...gibts denn schon etwas genauere Details bezüglich des Launchs?

Wie sieht's bei ATI aus?
Gibt's dazu was, wann die mit dem RV870 vor- bzw. nachlegen?
 
ach, wegen der Produktionsgrößen

2001 hieß es von Intel: "15 statt bislang 20 Nanometer. Produktionsreif soll der Winzling 2009 sein." Link

Wird wohl nichts draus :D
 
dorndi schrieb:
ich glaube nicht dass sie schon im 2Q erscheint, da sie schon bei der 55nm 260gtx anscheinend probleme mit leckströmen haben (daher auch größerer stromverbrauch wie bei der 65nm gtx)

Das war/ist nicht der Grund für den höheren Stromverbrauch. Aufgrund der geringeren Leistungsaufnahme konnte man auf ein einfacheres Layout der Spannungsversorger etc. zurückgreifen, die allerdings nicht ganz so effektiv sind. Dadurch sinkt der Strombedarf der Grafikkarte, der Stromverbrauch hingegen steigt.

Im übrigen muss es nicht zwangsläufig so sein, dass ein Chip, der schlecht auf 55nm ging, auch schlecht auf 40nm geht. Schließlich gibt es verschiedene Verfahren, um diese Strukturen zu bewerkstelligen. Und wenn eine davon mal mit dem eigenen Chipdesign Probleme macht, gibt es mehrere Möglichkeiten dies für eine gewisse zukünftige Zeit unter Kontrolle zu bekommen.
 
Zuletzt bearbeitet:
Ich bin grad etwas verwirrt, weil ich immer davon ausgegangen bin, dass der GT300 der nächste große Wurf werden soll und jetzt will man Shader etc. bereits in einer "Zwischenversion" erheblich erhöhen.

Ist die Konkurrenz vom GT212 dann jetzt der 5870, oder wird der 5870 erst gegen den GT300 antreten - wie ursprünglich geplant?
Weiterhin wär es dann noch interessant zu wissen, wann denn der GT300 erscheinen wird, oder ob sich dessen Erscheinen verzögern könnte. In diesem Zussammenhang kam mir gerade die Idee, ob man den GT212 nach einiger Zeit vielleicht als Mittelklasse bzw. gehobene Mittelklasse einsetzen wird und dementsprechend auf Basis des GT300 das Highendsegment abdeckt?!
 
ExcaliburCasi schrieb:
Erst verzögert sich Monatelang der Fertigungsprozess von 65nm auf 55nm und jetzt wollen sie wenige monate danach den sprung auf 40nm schaffen? Incl. einiger veränderungen der ausstattung des Chips ?
Warum nicht? der GT212 ist ja nicht erst seit gestern in mache. Der wird wohl spätestens seit dem G200 in Angriff genommen.
Was hat der 55nm Prozes mit dem 40nm Prozess zu tun?

Ich gehe eher mal davon aus das dann Mai so ca. erstmal 55nm varianten rauskommen, die dann Q3 09 geshrinkt werden
IMHO unwahrscheinlich. Dann hätten sie ja wieder so nen extrem großen Klopper. Ich würde mal behaupten es kommt kein größerer Chip mehr in 55nm.
Ob sie mit den 256Bit aber auskommen, naja wer weiß wie hoch die den Speicher Takten
Eine GTX285 wird wohl 155 GB/s Speicherbandbreite haben. Mit effektiven 5GHz GDDR5 wäre man mit nem 256bit SI bei 160GB/s. Sollte wohl reichen, bis das Teil produziert wird gibt es vll. schon schnelleren.

autoexe schrieb:
In diesem Zussammenhang kam mir gerade die Idee, ob man den GT212 nach einiger Zeit vielleicht als Mittelklasse bzw. gehobene Mittelklasse einsetzen wird und dementsprechend auf Basis des GT300 das Highendsegment abdeckt?!
Man wird wohl auch in der Mittelklasse möglichst schnell DX11 Karten anbieten. Aber eine kurze Zeit lang wird das wohl zwangsläufig so sein, aber längerfristig eher nicht.
 
Zuletzt bearbeitet:
Klingt mal sehr vielversprechend - mal sehen, wieviel nachher noch davon übrig ist ^^.

Bei 1.8m transistoren unter 300mm² ? Das mit 60% mehr Shadern? Das klingt eigentlich schon zu gut, um wahr zu sein ;).
 
was ich faszinierend finde ist die tatsache, dass nvidia auf "teufel-komm-raus" auf DX10+CUDA hängen bleibt...
mitte 2009 wird es schon erste DX11-Karten von ATI geben.
 
Nochmal wegen Fertigungsgröße: Also wenn ich richtig informiert bin, dann basieren doch Quantenprozessoren auf Supraleitern. Und, dass die erst mal supraleitend werden, muss man die doch auf minus zweihundert-und-nochwas Grad runterkühlen. Da dürfte das "Kühlungsproblem" gleich mal ganz neue Ausmaße annehmen! Wird dann eine CPU/GPU standartmäßig mit einer Boxed Flüssigstickstofffertigungsanlage ausgeliefert? Also Quantenprozessoren halte ich nur bedingt für eine Lösung der immer kleiner werdenden Pertigungsprozesse. Aber interessant is es allemal, was dann kommt, wenns halt nicht mehr kleiner geht...
 
FloW3184 schrieb:
was ich faszinierend finde ist die tatsache, dass nvidia auf "teufel-komm-raus" auf DX10+CUDA hängen bleibt...
mitte 2009 wird es schon erste DX11-Karten von ATI geben.

Naja, ich denk zwar schon, dass da schon DX11 kommt, aber mal ganz im Ernst? Wayne. DX11 ist dann doch eh nur Marketing Sache ;)

Beispiel: DirectX 10 gibts nun schon seit mehr als 2 Jahren - und es gibt kaum mehr als ein Dutzend Spiele, die es unterstützen.

Bis sich DX11 wirklich durchgesetzt hat, sind wir schon 3-4 Graka-Generationen weiter. Da bin ich mir sicher.
 
ExcaliburCasi schrieb:
2001 hieß es von Intel: "15 statt bislang 20 Nanometer. Produktionsreif soll der Winzling 2009 sein." Link

Wird wohl nichts draus :D

das hast du aber etwas falsch verstanden^^

Im Text ist davon die Rede, das die Gatelänge auf 20 respektive 15nm schrumpfen soll...das ist schon was anderes als der Fertigungsprozess/die Strukturbreite die letztendlich verwendet wird.

Steht auch etwas weiter unten im Text:
"mit dem Fertigungsprozess P1268 bis 2009 in Serie (...) arbeitet mit einer Strukturbreite von 30 Nanometern"
Quelle: tecchannel.de, 2001

Und weiter oben:
"kleinste funktionierende Transistor bei Intel mit einer Gate-Länge von 15 Nanometern auskommt"
Quelle: tecchannel.de, 2001


Und das Intel 2009 oder spätestens 2010 die ersten 32nm-Chips aufn Markt werfen will, ist ja allseits bekannt.

Von daher, OHNE für Intel hier werben zu wollen, finde ich, ist das schon eine beträchtliche Leistung bei solch Komplexen Produkten eine Vorhersage dafür zu stellen, was in 8 Jahren(!!!) kommt und damit auch noch in etwa richtig zu liegen (30nm angesagt, 32nm kommt 2009/10).
Dazu sag ich nur zweierlei: wurd wohl was draus UND Hut ab!


Und noch schnell hinterher, um das OT ein bissl zu komplettieren^^: Ich freu mich trotzdem erstmal über den Deneb, als nächsten wichtigen CPU-Launch :)
 
Hoffentlich erhöhen sie beim 256-Bit-SI dann auch die ROP-Anzahl von 16 auf 32. Der GT200 hat ja auch 32 ROPs. Eine halbierte Pixel- und z-Füllrate würde der Performance auf jeden Fall merklich schaden, vor allem mit hohen (SS)AA-Modi wie sie eben vor allem von High-End-Käufern genutzt werden.
Evtl. würde der GT212 bei gleichen Taktraten wie der GTX 285 trotz 60% mehr Shaderleistung und 20% mehr Texelfüllrate in Spielen kaum bis gar nicht schneller werden als die GTX 285, wenn die Speicherbandbreite gleich bleibt und die Pixel-/z-Füllrate sogar halbiert wird.
Mit 32 ROPs würde ich im Vergleich zur GTX 285 mit 25% mehr Leistung in Spielen und 50% mehr Leistung bei CUDA rechnen (bei gleichen Taktraten, nur eben mit GDDR5 statt GDDR3).
 
Zuletzt bearbeitet:
FreeZer_ schrieb:
Klingt mal sehr vielversprechend - mal sehen, wieviel nachher noch davon übrig ist ^^.

Bei 1.8m transistoren unter 300mm² ? Das mit 60% mehr Shadern? Das klingt eigentlich schon zu gut, um wahr zu sein ;).

Vielversprechend für AMD?

Sollten sich diese Daten bewahrheiten, sehe ich schon dass nächste Millionengrab für Nvidia. Ein Chip mit 1,8 Mrd Transistoren und ein neuer Fertigungsprozess lassen die Ausbeute wahrscheinlich gegen Null tendieren. So kann das nichts werden. Dachte eigentlich man will von den Monsterchips weg kommen.
 
Gehen sie doch.

Sie sagen, der neue Chip ist 2xxmm² groß. (unter 300mm², also 2xx^^)

Der GT200 war 576mm² groß, der GT212 ist dann 2xxmm² groß. Von Monsterchip kann da keine Rede mehr sein, da er ja fast schon halbiert wird in der Größe.
 
Also wenn nichts kleiner geht werden wohl die dualgpu karten standart.

Aber wer weis was noch kommt (die sagenumwogene glaskugel befragt...)
Ne die Galskugel weis auch nichts :D
 
>|Sh4d0w|< schrieb:
26. Februar 1999 kam der Pentium III (Katmai) raus. (9,5 Millionen Transistoren) bei 250 nm :lol:
So einen hat meine Schwester heute noch in Verwendung. Was eine Stromverschwendung :D

Laurin. schrieb:
Von den Leistungsmerkmalen scheint es nicht einfach ein weiterentwickelter GT200(b) zu sein. Der Unterschied der Spezifikationen ist in meinen Augen zu groß.
Sehe ich genauso. Das Speicherinterface halbieren, Shadereinheiten um 60% erhöhen und noch auf 40nm umstellen, das ist mehr als ein simples Refresh. Nvidia war in der Vergangenheit doch mit Neubenennungen schon nicht sparsam. Wieso hier nicht gleich GT300? Geschätzte 40-50% Mehrleistung dürften einen neuen Namen doch wohl wert sein.

Ich vertraue der News nicht so ganz. Falls dieser Chip mit den Spezifikationen kommt, dann wohl eher nicht Q2 2009, sondern ein wenig später.
Laurin. schrieb:
In gewissen Spielen mit gewissen Qualitätseinstellungen ist ja immer wieder die Rede vom "volllaufenden Grafikspeicher". Laut der News plant NV den Einsatz von GDDR5 (Was mich für den derzeitigen einzigen ?? Zulieferer Quimonda im übrigen freuen würde) aber gleichzeitig reduziert man das Speicherinterface. Werden wir trotzdem Grafikkarten mit 2 GB effektivem Grafikspeicher sehen ?
Du vergisst, dass die Speicherverwaltung bei 256bit deutlich effizienter ist, da Pakete nicht mehr künstlich auf 512bit, sondern nur auf 256bit aufgefüllt werden müssen.
Das ist wie mit 32bit und 64bit Arbeitsspeicher. Ein Umstieg von 3GB@32bit auf 4GB@64bit lohnt kaum, da der 32bit Speicher einfach sparsamer mit seinen Daten umgehen kann.

Dennoch wird Nvidia dem neuen Flaggschiff mind. 1GB Speicher verschaffen, allein schon aus Marketinggründen. Ich kann das nur begrüßen - die einzige Alternative zu Speicher ist mehr Speicher ;)
 
Pimpi18 schrieb:
1999 kam die Geforce 256 raus diese wurde in 220 nm gefertigt. Quelle Wikipedia

Immer langsam ;)
Im März 99 kam laut der Wiki-Vergleichstabelle erstmal er NV5 in Form der TNT2 raus. Der war noch in robusten 250nm gefertigt.
Der Shrink stand aber wohl unmittelbar an und so kam im Juli 1999 der NV6 in 220nm auf der TNT2 M64.
Die GeForce 256 kam erst später im Jahr.

Ich hab mal grob alle Prozesse zusammen mit der Chip-Einführung in ne Tabelle eingetragen, ein Diagramm geplottet und ne Trendlinie (exponentieller Verlauf) hinzugefügt. Danach wirds in 10Jahren schätzungsweise bei den 15nm liegen die bereits genannt wurden :D

P.S.: Hab übrigens noch ne Riva128 hier am rumliegen die noch läuft. Wurde damals in 350nm gefertigt und benötigte keinerlei Kühlung :freaky:

MfG
 
Klamann schrieb:
Wieso hier nicht gleich GT300?
GT300 = D3D11 + größere Architekturänderungen + dynamische Taktraten (energieeffizienter)

Der GT212 ist im Prinzip auch nur ein breiterer G80 mit breiteren Shaderclustern (und mehr davon) und vermutlich kleineren ROP-Partitionen, die nun an GDDR5-Speicherinterfaces gekoppelt sind (statt GDDR3). Die Mikroarchitektur ist dieselbe wie beim G80, das Featureset auch (mal abgesehen von den Double-Precision-Einheiten).
 
Zuletzt bearbeitet:
ExcaliburCasi schrieb:
Wird wohl nichts draus :D

Doch, sie sind im Zeitplan. Wenn du den Text liest, findest du folgenden Abschnitt:

Dieses Verfahren arbeitet mit einer Strukturbreite von 30 Nanometern, heute sind 130 Nanometer in der Serienfertigung Stand der Technik.

Es sind zwar nicht 30nm, sondern 32nm - aber laut Intels Tick-Tock Modell sollten die ersten 32nm-Prozessoren noch gegen Ende dieses Jahrs (in homoöpathischen Dosen) den Markt erreichen.

Zur News:

Die 60% an zusätzlichen Shadern sind meiner Meinung nach höchst unrealistisch - das Plus an TMUs kann ich mir eher vorstellen. Ich glaube nicht, das nVidia vom 3:1 Verhältnis abweichen wird, da man damit bisher sehr gut gefahren ist. Unvorstellbar wäre es natürlich nicht, wenn man im Auge behält, das nVidia stark in den GPGPU-Markt drückt.

Was ich mir auch nicht vorstellen kann: wie sollen 1,8 Milliarden Transistoren (trotz 40nm Fertigung) auf weniger als 300mm² passen? Wenn ich nur die Verhältnisse zwischen GT200 in 65nm und 55nm vergleiche (576mm² und 470mm²), dann sind schon 1,4 Milliarden Transistoren bei 40nm und 300mm² nicht ganz stimmig. Ich weiß nicht genau, wieviel Platz jeweils TMU und ein Shader brauchen, aber unter 400mm² kann ich mir das (besonders bei 60% mehr Shadern und 20% mehr TMUs) nicht vorstellen.

Außerdem: Ich habe mich schon öfter gefragt, warum bei GPUs inzwischen immer öfter schon auf Half-Node Prozesse zurückgegriffen wurde, aber bei CPUs nicht. Gibt es dafür einen plausiblen Grund?
 
Schön zu sehen, dass endlich mal wieder richtig Schwung in den Markt kam. Soviele neue Grafikkarten in so kurzer Zeit gab es schon lang nicht mehr.
 
Zurück
Oben