News : Erste genaue Details zu Nvidias „GT212“-Chip

, 118 Kommentare

Hardware-Infos will erste genaue Details zu Nvidias nächster High-End-GPU, dem „GT212“, ausgegraben haben. Demzufolge wird der Chip, der im 2. Quartal 2009 die GPUs GT200 (65 nm) sowie GT200b (55 nm) ablösen soll, bereits in 40 nm gefertigt, in Sachen Ausführungseinheiten auf- und in Sachen Speicherinterface abspecken.

Die Anzahl der Shadereinheiten soll um 60 Prozent von 240 auf 384 steigen, die Anzahl der TMUs um 20 Prozent von 80 auf 96 klettern. Das Verhältnis von Shadern zu TMUs steigt demzufolge von 3:1 auf 4:1. Trotz der massiven Zunahme an Ausführungseinheiten und Transistoren (rund 1,8 anstatt 1,4 Mrd. sollen es werden) liegt die Chipfläche laut den Kollegen bei unter 300 Quadratmillimetern.

Beim Speicher schwenkt Nvidia allem Anschein nach um und schlägt den ATi-Pfad ein: Ein kleineres Speicherinterface von „nur“ 256 Bit wird mit hoch getaktetem GDDR5-Speicher kombiniert. So wie es ATi bei den Topmodellen Radeon HD 4870 und Radeon HD 4870 X2 seit einer Generation vorgemacht hat. Der Aufpreis von GDDR3 zu GDDR5 fällt offenbar günstiger aus, als der Aufwand der mit einem entsprechend größeren Speicherinterface einher ginge.

Abschließend merken die Kollegen an, dass auch an der Leistungsaufnahme gehörig geschraubt werden konnte. Wir wollen es hoffen und sind gespannt auf weitere Fakten, die nicht mehr lange auf sich warten lassen dürften. Im neuesten Beta-Treiber, dem Nvidia GeForce 185.20, ist der GT212 zusammen mit seinen bisher nicht näher spezifizierten Ablegern GT215, GT216 und GT218 bereits gelistet.

NVIDIA_DEV.0A00.01 = "NVIDIA GT212"
NVIDIA_DEV.0A10.01 = "NVIDIA GT212"
NVIDIA_DEV.0A20.01 = "NVIDIA D10M2-30"
NVIDIA_DEV.0A30.01 = "NVIDIA GT216"
NVIDIA_DEV.0A60.01 = "NVIDIA GT218"
NVIDIA_DEV.0A70.01 = "NVIDIA GT218"
NVIDIA_DEV.0A7D.01 = "NVIDIA GT218"
NVIDIA_DEV.0A7F.01 = "NVIDIA GT218"
NVIDIA_DEV.0CA0.01 = "NVIDIA GT215"
NVIDIA_DEV.0CB0.01 = "NVIDIA GT215"

Neue Modelle im Nvidia GeForce 185.20
118 Kommentare
Themen:

Ergänzungen aus der Community

  • bensen 05.01.2009 15:54

    Erst verzögert sich Monatelang der Fertigungsprozess von 65nm auf 55nm und jetzt wollen sie wenige monate danach den sprung auf 40nm schaffen? Incl. einiger veränderungen der ausstattung des Chips ? ExcaliburCasi
    Warum nicht? der GT212 ist ja nicht erst seit gestern in mache. Der wird wohl spätestens seit dem G200 in Angriff genommen.
    Was hat der 55nm Prozes mit dem 40nm Prozess zu tun?

    Ich gehe eher mal davon aus das dann Mai so ca. erstmal 55nm varianten rauskommen, die dann Q3 09 geshrinkt werden
    IMHO unwahrscheinlich. Dann hätten sie ja wieder so nen extrem großen Klopper. Ich würde mal behaupten es kommt kein größerer Chip mehr in 55nm.

    Ob sie mit den 256Bit aber auskommen, naja wer weiß wie hoch die den Speicher Takten
    Eine GTX285 wird wohl 155 GB/s Speicherbandbreite haben. Mit effektiven 5GHz GDDR5 wäre man mit nem 256bit SI bei 160GB/s. Sollte wohl reichen, bis das Teil produziert wird gibt es vll. schon schnelleren.

    In diesem Zussammenhang kam mir gerade die Idee, ob man den GT212 nach einiger Zeit vielleicht als Mittelklasse bzw. gehobene Mittelklasse einsetzen wird und dementsprechend auf Basis des GT300 das Highendsegment abdeckt?! autoexe
    Man wird wohl auch in der Mittelklasse möglichst schnell DX11 Karten anbieten. Aber eine kurze Zeit lang wird das wohl zwangsläufig so sein, aber längerfristig eher nicht.
  • KonKorT 05.01.2009 16:51
    (Bin kein Chip-Spezialist, meine Aussagen sind rein spekulativer Natur. Jemand mit mehr technischem Know-How kann mich gerne revidieren.)
    • />
    • Von den Leistungsmerkmalen scheint es nicht einfach ein weiterentwickelter GT200(b) zu sein. Der Unterschied der Spezifikationen ist in meinen Augen zu groß.
    • Nachdem NV anscheinend schon arge Probleme bei einem, im vergleich wohl deutlich einfacherem, 55nm Die-Shrink hatte. Ist es überhaupt denkbar das NV dann nochmal kleinere Strukturen bei gleichzeitig ansteigender Chipkomplexität innerhalb von nur 6 Monaten auf den Markt wirft ?
    • Performancetechnisch hat die GTX260 durch 24 mehr SP deutlich an Fahrt gewonnen. Der Sprung auf 384 müste daraus ja ein wahres Monster machen.
    • In gewissen Spielen mit gewissen Qualitätseinstellungen ist ja immer wieder die Rede vom "volllaufenden Grafikspeicher". Laut der News plant NV den Einsatz von GDDR5 (Was mich für den derzeitigen einzigen ?? Zulieferer Quimonda im übrigen freuen würde) aber gleichzeitig reduziert man das Speicherinterface. Werden wir trotzdem Grafikkarten mit 2 GB effektivem Grafikspeicher sehen ?
    Laurin.
    Man hat aus hardwaretechnischer Sicht lediglich die Anzahl der Shadercluster von zehn auf zwölf aufgestockt und verbaut pro Shadercluster jetzt 32 statt 24 Streamprozessoren.

    Mit Nvidia und 55 nm ist das so eine Sache. Das Tapeout des GT200b war schon vor der Vorstellung des GT200. Der Chip sollte eigentlich im August/September letzten Jahres kommen, aber es gab hier einen sehr dummen Fehler, der nicht auf das Fertigungsverfahren zurückzuschieben ist - schreibt zumindest The Inquirer.

    Und natürlich läuft die Entwicklung des GT212 völlig unabhängig bzw. parallel von der des GT200b. Deswegen mag es dem ein oder anderen jetzt schnell vorkommen. Ursprünglich waren GT200 und dessen Ableger von Nvidia im folgenden Zeitfenster angelegt:

    Q4/2007: GT200
    Q2/2008: GT200b
    Q1/2009: GT212

    Durch das 256 Bit breite Speicherinterface werden beim GT212 bspw. die Speichergrößen 512, 1024 und 2048 MiB möglich sein. Speicherinterface und -größe stehen hier in direkter Abhängigkeit.
    Ich spekuliere, dass das Standardmodell 1024 MiB Texturspeicher haben wird.


    Die 60% an zusätzlichen Shadern sind meiner Meinung nach höchst unrealistisch - das Plus an TMUs kann ich mir eher vorstellen. Ich glaube nicht, das nVidia vom 3:1 Verhältnis abweichen wird, da man damit bisher sehr gut gefahren ist. Unvorstellbar wäre es natürlich nicht, wenn man im Auge behält, das nVidia stark in den GPGPU-Markt drückt.

    Was ich mir auch nicht vorstellen kann: wie sollen 1,8 Milliarden Transistoren (trotz 40nm Fertigung) auf weniger als 300mm² passen? Wenn ich nur die Verhältnisse zwischen GT200 in 65nm und 55nm vergleiche (576mm² und 470mm²), dann sind schon 1,4 Milliarden Transistoren bei 40nm und 300mm² nicht ganz stimmig. Ich weiß nicht genau, wieviel Platz jeweils TMU und ein Shader brauchen, aber unter 400mm² kann ich mir das (besonders bei 60% mehr Shadern und 20% mehr TMUs) nicht vorstellen. Neocroth
    Wie kommst Du darauf, dass Nvidia mit dem 3:1-Verhältnis sehr gut gefahren ist? Das sehe ich nicht so.
    Hebt man beim GT200 die Shaderdomain an, explodiert die Performance, hebt man dagegen Chip- oder Speichertakt an, ist kaum ein Mehrgewinn feststellbar. Die TMU-Performance ist schon seit dem G80 ausreichend; die GTX 260 hat z.B. eine deutlich geringere Texturperformance als die 9800 GTX+ - wenngleich man fairerweise ergänzen sollte, dass die GT200-TMUs effizienter arbeiten als die G92-TMUs.

    Durch den Einsatz der 40-nm-Technologie halbiert sich gegenüber 55 nm ziemlich genau die Chipgröße (Faktor 0,5008). Den GT200 in seiner jetzigen Fassung sollte man also bei ungefähr 240 mm² in 40 nm ansiedeln können.
    Zur Fläche: Beim GT200 belegen jeweils rund 1/4 der Gesamtgröße die 240 SPs und 80 TMUs, weswegen die Angabe < 1,8 Millarden Transistoren passt und damit auch die genannte Die-Größe < 300 mm².
  • theorist 05.01.2009 18:43
    Irgendwie finde ich es aber dennoch seltsam: Die Ausführungseinheiten usw. werden drastisch erhöht. Zugleich gehe ich mal von einem deutlich besserem Takt aus, was die Rechenleistung wiederum erhöht - und dann verharrt man auf der gleichen Speicherbandbreite? Wobei noch die Frage ist, ob ein GDDR5-256MBit Gespann genauso effizient ist wie ein GDDR3-512MBit Gespann. Ich meine auf gleichem Takt ist der GDDR3 ja schneller - wirkt sich dies auch auf die Kombination aus?
    Zudem ist dann High-End GDDR5 gefragt, der sicherlich auch nicht ganz billig ist. Straputsky
    Das 256-Bit-GDDR5-Speicherinterface erlaubt kompaktere und einfachere PCBs. Außerdem spart man sich noch ca. 5-7% an Chipfläche ohne dass die Speicherbandbreite geringer wäre als bei einem 512-Bit-GDDR3-Interface.
    Die höhere Rechenleistung schadet auf jeden Fall niemanden und bei GPGPU könnte sie auch fast vollständig durchschlagen. Bei Spielen würde ich erstmal nur mit ~20% Mehrleistung gegenüber einer GTX 285 rechnen, sofern die Taktraten gleich ausfallen. Wobei die Taktraten @ 40 nm ja auch durchaus höher ausfallen können als @ 55 nm.
    Der Flächenverbrauch dürfte gegenüber einem fiktiven GT200 @ 40 nm um 20-25% höher ausfallen und entspricht somit ungefähr dem Leistungsvorteil für Spieler. Im Computing-Bereich überwiegt der Leistungsvorteil den Flächennachteil sogar deutlich.
  • Krautmaster 06.01.2009 03:58
    der reinste Spekulazius hier, wie die zukünftigen Codenamen heißen liest sich ja aus dem Treiber heraus. Aber man denke mal an die ganzen G100 Gerüchte die einst im Umlauf waren. Namen sind wie Schall und Rauch, vom G300 ist noch nichts offizielles gehört worden. Für mich steht auch nicht fest dass NV die Architektur umkrempeln wird. Sicher werden sie das, aber nicht in der Form ala G80. Mehr Shader, andere Anordnungen, andere Verhältnisse, anderes Speicherinterface, anderer Ram, andere Größe. NV muss die Leistungsdichte erhöhen, sowohl durch Architekturverbesserungen als auch durch Fertigung. Tiefgreifende Änderung wäre den kompletten Shaderaufbau zu ändern, ähnlich AMD auf 5D oder XD Shader zu setzen da die Leistungsdichte höher ist.

    Das die Größe der Die bei weiten nicht nur von der Shaderanzahl abhängt sollte klar sein, man schaue sich mal den R770 Die Shot der vergangenen News an. Ich bin ebenfalls der Auffassung dass NV durch die 55nm Probleme ganzschön in Verzug geraten ist, der G200 eig von Anfang an in 55nm geplant war. Deswegen ist er so überraschend rießig ausgefallen. Der 40 nm Prozess wird sicher weitestgehend seperat dazu entwickelt, genau wie die zugehörige Architektur. 40 nm Ende Q2 zu sehen halte ich für realistisch, rechne jedoch mit Q3. Den G300 kann ich bis jetzt noch niergends wirklich einordnen, das ist mir zu spekulativ.

    Greedz