News Erste genaue Details zu Nvidias „GT212“-Chip

der reinste Spekulazius hier, wie die zukünftigen Codenamen heißen liest sich ja aus dem Treiber heraus. Aber man denke mal an die ganzen G100 Gerüchte die einst im Umlauf waren. Namen sind wie Schall und Rauch, vom G300 ist noch nichts offizielles gehört worden. Für mich steht auch nicht fest dass NV die Architektur umkrempeln wird. Sicher werden sie das, aber nicht in der Form ala G80. Mehr Shader, andere Anordnungen, andere Verhältnisse, anderes Speicherinterface, anderer Ram, andere Größe. NV muss die Leistungsdichte erhöhen, sowohl durch Architekturverbesserungen als auch durch Fertigung. Tiefgreifende Änderung wäre den kompletten Shaderaufbau zu ändern, ähnlich AMD auf 5D oder XD Shader zu setzen da die Leistungsdichte höher ist.

Das die Größe der Die bei weiten nicht nur von der Shaderanzahl abhängt sollte klar sein, man schaue sich mal den R770 Die Shot der vergangenen News an. Ich bin ebenfalls der Auffassung dass NV durch die 55nm Probleme ganzschön in Verzug geraten ist, der G200 eig von Anfang an in 55nm geplant war. Deswegen ist er so überraschend rießig ausgefallen. Der 40 nm Prozess wird sicher weitestgehend seperat dazu entwickelt, genau wie die zugehörige Architektur. 40 nm Ende Q2 zu sehen halte ich für realistisch, rechne jedoch mit Q3. Den G300 kann ich bis jetzt noch niergends wirklich einordnen, das ist mir zu spekulativ.

Greedz
 
Zuletzt bearbeitet:
Krautmaster schrieb:
der reinste Spekulazius hier, wie die zukünftigen Codenamen heißen liest sich ja aus dem Treiber heraus. Aber man denke mal an die ganzen G100 Gerüchte die einst im Umlauf waren. Namen sind wie Schall und Rauch ...
das sieht zumindest media markt anders
siehe hier den dazugehörigen golem artikel

___


Krautmaster schrieb:
der reinste Spekulazius hier, wie die zukünftigen Codenamen heißen liest sich ja aus dem Treiber heraus. Aber man denke mal an die ganzen G100 Gerüchte die einst im Umlauf waren. Namen sind wie Schall und Rauch...
das sieht zumindest media markt anders.
siehe den golem artikel hier
 
Zuletzt bearbeitet:
doppelpost *ächz*
 
Oh man die ham doch ne Klatsche.
Soweit ich richtig liege was die 9600gso zuerst eine 8800gs und jetzt wird das Teil in GT130 umbenannt.
Schöner Kundenfang Nvidia... Ich frag mich obs Leute gibt die von ner 8800gs auf ne 9600gso "aufgerüstet" haben, da wird der Ärger auch groß gewesen sein.
 
IchmagToast schrieb:
ich kann GTA 4 mit meiner GTX 260 oc grade mal alles auf hoch sichtdetails 50 in 1400x1050 rademal max 30 fps zocken...also wenn man da alles auf max. haben will...naja isn anderes thema

Was aber wohl an der schlechten Umsetzung liegt und nicht an der Grafikkarte oder die Grafikpracht des Spiels.
 
<NeoN> schrieb:
...
Schöner Kundenfang Nvidia...
obacht bitte!
eine g1xx ist auch jetzt noch nicht auf der webseite von nvidia unter den produkten gelistet.
daher habe ich bewusst gesagt, dass zumindest media markt da anderer ansicht ist.
 
Wo liegt jetzt eigentlich die physikalische Grenze für den Abstand der Leiterbahnen ? 8 Nanometer ? Bei dem Tempo sind wir doch in weniger als 5 Jahren dort.
 
Neocroth schrieb:
Außerdem: Ich habe mich schon öfter gefragt, warum bei GPUs inzwischen immer öfter schon auf Half-Node Prozesse zurückgegriffen wurde, aber bei CPUs nicht. Gibt es dafür einen plausiblen Grund?
Der Grund sind die Entwicklungszeiten.
GPUs gibt es viel schneller neue und sie sind auch weniger komplex. Da ist es leichter dann jeweils auf einen neuen Prozess zu gehen wenn man die eh neu macht.
Bei CPUs haben wir ja längere Entwicklungszyklen und sie sind auch komplexer. Daher wird dort seltener eine CPU neu designt. Und wenn, dann geht man gleich einen größeren Schritt.

Etwas anders:
Bei einem Shrink werden ja nicht nur Strukturgrößen verändert, sondern auch Prozesse und Materialien.
Da verschiedene Teile eines Chips auch nur unterschiedlich stark geschrumpft werden können und eben sich auch weitere Parameter ändern muss vieles neu gemacht werden.
Dieses neu gestalten des Chips kostet, neue Masken kosten, dann muss alles getestet werden und der neue Prozess dürfte anfangs auch eine geringere Ausbeute haben.
Das macht man dann also nur dann wenn erwartete Gewinn aus dem Shrink höher ist als die Kosten dafür.
Wenn man eh etwas neu plant bzw neue Masken braucht, dann sind die Kosten natürlich geringer.
 
KonKorT schrieb:
Durch den Einsatz der 40-nm-Technologie halbiert sich gegenüber 55 nm ziemlich genau die Chipgröße (Faktor 0,5008). Den GT200 in seiner jetzigen Fassung sollte man also bei ungefähr 240 mm² in 40 nm ansiedeln können.
Zur Fläche: Beim GT200 belegen jeweils rund 1/4 der Gesamtgröße die 240 SPs und 80 TMUs, weswegen die Angabe < 1,8 Millarden Transistoren passt und damit auch die genannte Die-Größe < 300 mm².

Wie kommst du denn auf den Faktor 0.5008?

Selbst wenn es ein linearer Skrink sein würde komme ich auf einen anderen Faktor?

(40/55)+(40/55) = 0,5288?

Abgesehen davon das Shrinks nie linear sind, soll es hier explizit weniger sein?
Oder hast du einen Link der etwas anderes sagt?
 
<NeoN> schrieb:
Oh man die ham doch ne Klatsche.
Soweit ich richtig liege was die 9600gso zuerst eine 8800gs und jetzt wird das Teil in GT130 umbenannt.
Schöner Kundenfang Nvidia... Ich frag mich obs Leute gibt die von ner 8800gs auf ne 9600gso "aufgerüstet" haben, da wird der Ärger auch groß gewesen sein.
Hinzu kommt noch, dass man bei der 9600 GSO einfach mal so die Spezifikation geändert hat, so dass es nun eine Variante mit G94-Chip und eine mit G92-Chip gibt, wobei die G94-Variante deutlich weniger Shaderleistung und Texelfüllrate hat, dafür aber mehr Speicher, mehr Speicherbandbreite und mehr Pixel-/z-Füllrate.

Im Q2/2009 dürfte aber wieder eine einheitliche Produktlinie von Nvidia am Markt sein mit 40-nm-GPUs in allen Marktsegmenten und mit einheitlichem Namensschema, wo die Nummer direkt Rückschlüsse auf die Leistungsklasse erlaubt.
 
Kunibert_KA schrieb:
Etwas anders:
Bei einem Shrink werden ja nicht nur Strukturgrößen verändert, sondern auch Prozesse und Materialien.

Nein, Shrink heisst: gleicher Prozess, gleiche Materialien.

theorist schrieb:
Hinzu kommt noch, dass man bei der 9600 GSO einfach mal so die Spezifikation geändert hat,

Hat man nicht. Man muss unterschieden zwischen 9600GSO und 9600GSO512.

http://www.nvidia.de/page/geforce_9600gso.html

http://www.nvidia.de/page/product_geforce_9600_gso_512.html
 
Zuletzt bearbeitet:
kisser schrieb:
Die Hersteller von Grafikkarten unterscheiden auf den Homepages nicht zwischen 9600 GSO und 9600 GSO 512. Zumal 9600 GSO 512 kein besonders geschickter Name ist, da es ja auch Varianten mit 1 GiB VRAM gibt.
Somit sieht der ahnungslose Käufer nur diese Varianten: 9600 GSO 384 MiB, 9600 GSO 512 MiB, 9600 GSO 768 MiB und 9600 GSO 1024 MiB.
Scheinen auf den ersten Blick alle gleich zu sein bis auf die Speicherausstattung.
Aber man muss fairerweise sagen, dass die G94-Variante der 9600 GSO nicht wirklich langsamer ist als die G92-Variante außer bei CUDA.
 
Kunibert_KA schrieb:
Wie kommst du denn auf den Faktor 0.5008?

Selbst wenn es ein linearer Skrink sein würde komme ich auf einen anderen Faktor?

(40/55)+(40/55) = 0,5288?

Abgesehen davon das Shrinks nie linear sind, soll es hier explizit weniger sein?
Oder hast du einen Link der etwas anderes sagt?

1/0,9² * (45²/65²) * 0,92² = 0,5008

Dabei liegen folgende Informationen zugrunde:
Von 45 zu 65 nm ist ein linearer Shrink, von 65 zu 55 nm ist 10% linear und von 45 zu 40 nm ist 8% linear (die Infos kann man jeweils bei den Auftragsfertigern erfragen, sind aber auch glaube ich teilweise öffentlich).
 
KonKorT schrieb:
1/0,9² * (45²/65²) * 0,92² = 0,5008

Dabei liegen folgende Informationen zugrunde:
Von 45 zu 65 nm ist ein linearer Shrink, von 65 zu 55 nm ist 10% linear und von 45 zu 40 nm ist 8% linear (die Infos kann man jeweils bei den Auftragsfertigern erfragen, sind aber auch glaube ich teilweise öffentlich).

Also das musst du mir genauer erklären.

Finde das Thema prinzipiell interessant, aber schwer zu verstehen. Es ist nicht einfach darüber Informationen zu finden und diese dann zu verstehen.

Hast du da Links?

Ich denke wir sind uns aber einig, das Shrinks und vor allem Prozesse recht komplex sind und nicht so einfach wie viele sie sich vor- und darstellen.

Also nix mit 55->40 => 27% kleiner, 27% weniger Verbrauch, 27% höherer Takt usw.

Ich habe gelesen das der Wechsel von 55 auf 40 vor allem Platz bringt, aber eher wenig Taktpotential und wenig Stromersparnis.
 
Ich mach mir da keine Gedanken! Wenn sie mal am Ende angekommen sind, ist die Graka sowieso so Leistungsfähig, dass es besser garnicht mehr sein muss. Sonst hocken doch alle vorm PC und müssen brechen,weils zu realistisch ist!

Auch wird sich da die BPJS noch freuen! Umso realer alles wird, desto mehr wird indiziert!

Und sind wir doch mal ehrlich: Was wäre denn alles möglich, wenn man die nächsten Jahre alle Spiele für eine GTX 295 bzw 4870x2 Optimieren würde! Dagegen wäre die Grafik von Crysis vermutlich ein Witz.

Ich finde das Permanente rausbringen von neuer Hardware sowieso sehr bescheiden.


Es wahr mal richtig nice, als NV ihre 8800GTX auf den Markt gebracht hat und die fast 1,5 Jahre das State of the Art war und nun immer noch dicke zum zocken reicht.

Aber wie es auch kommt so kommt's :-)
 
Zurück
Oben