GTX 280 in 55nm?

Mr.Mushroom

Banned
Registriert
Juni 2007
Beiträge
2.920
Hoi @all!

die Geforce 9800GTX+ ist bereits in 55nm gefertigt, was natürlich höheren Taktraten bei niedrigerer Temperatur erlaubt.
Falls ich mich nicht irre, habe ich mal was davon gelesen, dass der G200 Chip zuerst in 65nm gefertigt wird und später dann in 55nm.

Wenn ja, wann würde die erste GTX 280 in 55nm releasen?
So eine GTX 280(55nm) @max geht sicher krank ab und wenn der Preis <400€ kommt, dann ist auch diese Grafikkarte interessant.

Greetz.Mr.Mushroom
 
"Suchfunktion"
"H2 2008" / "bald" / "Tape-out war im Mai"
"GTX 270"
"GTX 250"
"GTX 290"
"450€ kostet die 280 heute"
 
Zuletzt bearbeitet:
Also, wird keine GTX280\GTX260 in 55nm produziert werden, sondern es kommen neue Versionen raus?
Also, kommen bald deine genannten GTX 250\270\290 raus?
...oh Gott, die Nvidia Produktpalette wird dann ja noch verwirrender!
Wollten sie dies nicht verhindern?

PS: Ich habe gegoogelt und es ist immer nur 9800GTX+ gekommen.

Greetz.Mr.Mushroom
 
Zuletzt bearbeitet:
Was genau verwirrt dann?

Die Rangfolge der "Grafikkartengeschwindigkeit" der GTX-Reihe und damit der vermeindlichen Leistungsspitze dieser Serie.

GTX 290, GTX 280, GTX 270, GTX 260, GTX 250

Wenn Grundsätze beibehalten werden, können hier aussagekräftige Bezeichnungen getroffen werden. So sollte eine 260 immer eine 250 überholen, egal ob davor ein GTX oder ein GS steht.

Bei der 8800er und allen Vorgängern konnte man als unerfahrener Grafikkartenkäufer sehr schnell im Chaos versinken, außer man wusste sich zu helfen. GT oder GS? GTS oder GTX? Bei Ultra erübrigt sich die Frage, aber alle anderen Karten hatten nur die 2-3 Buchstaben zur Identifikation und das "+" bringt auch richtig Schwung in die Sache...
 
Zuletzt bearbeitet:
@ Mr.Mushroom

Die GTX+ lässt sich kaum höher takten als die normale GTS. Viel leiser und kühler ist sie auch nicht, sie verbraucht nur minimal weniger Strom.

cYa
 
Hoi!

ich blicke eh immer bald durch, aber Leute, welche sich nicht so mit Grafikkarten beschäftigen werden es wieder schwierig haben.
Also, kommen die 55nm GTX's in 1-3 Monaten?

Greetz.Mr.Mushroom
 
Irgend wie muss Nvidia ja geld machen.
gibt immer leute die denken OH GTX + die ist ja besser .:rolleyes:
 
Ich denke sie kommen in ca. 2 Monaten, da der Tape-out im mai war und ich davon ausgehe, dass es nur ein optischer Shrink ist
 
@Quad-core:
Jaja, ich weiß!
Die 9800GTX+ war nur eine Notlösung gegen die ATI 4850, welche sich auch nicht durchschlagen wird.

@y33h:

Prozessornahes Beispiel: Conroe(65nm) auf Penryn(45nm).
Grafiknahes Beispiel: G80(90nm) auf G92(65nm).

...dadurch konnte man höhere Taktraten bei geringerer Temperatur erreichen.

Greetz.Mr.Mushroom
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Nö, ist halt nicht der Fall. Theorie ist schön, nur praktisch siehts halt oft anders aus.

cYa
 
Was beim Händler liegen bleibt ist halt immer so eine Sache.
 
@Mr.Mushroom: gegenbeispiel: Der Shrink des P4 von 120nm auf 90nm. Hat auch nichts gebracht, der neue 90nm Prescott war sogar noch heißer ( also auch stromhungriger) als der Vorgänger, weil Intel die Leckströme nicht in den Griff bekommen hat.
Deshalsb würde ja vom 65nm auf 45nm ja ein neues Verfahren von Intel "erfunden", das High-k-Dielektrikum ( http://de.wikipedia.org/wiki/High-k-Dielektrikum). ohne das wäre der unterschied zwischen 65nm und 45nm viel geringer gewessen

edit: durch die LEckströme ensteht die verlustleisung^^
 
Zuletzt bearbeitet:
Nur das der Prescot überhaupt nicht mit dem Northwood vergleichbar ist. (so wie G92 auch nur sehr bedingt mit G80 vergleichbar ist)
Vergleiche mal gleiche Designs. G70 -> G71
 
das ist mir schon klar, ich wollte nur sagen, das ein Die-Shrink allein nicht viel nützt.

Klar hatte der P4-Prscott mehr L2-Cache und i.d.R. einen höheren Takt, aber das war nicht allein der grund für diese hohe verlustleistung
 
Prescott hat abzüglich des größeren L2 Cache immer noch mehr als doppelt so viele Transitoren! ;)

Wahrlich kein gutes Beispiel für G200b, wo sich nichts/(kaum etwas) ändern sollte, bis auf die paar Redundanz Transitoren die man sparen kann.

Was soll schon passieren, im Schlimmsten Fall? Deutlich billiger wird G200b auf jeden Fall.
 
Der Chache beim Prescott war ja nicht das einzige, die Pipeline (also die logischen "stromfressenden" Schaltkreise) wurde von 20 auf 31 Stufen verlaengert.


Daher hingt der Vergleich wirklich.


Fuer was setzt man "Redundanz Transitoren" ueberhaupt ein. (7800 GTX -7900 GTX 303 auf 278 geschrumpft). Wo spart man die wieder ein.

Bitte um Aufklaerung.


gruss
 
@Unyu: Bei einem so komplexen Design lassen sich sicherlich mehr als ein "paar Redundanz Transistoren" einsparen.

@'Xander: Bedingt durch den Fertigungsprozess ist kein Chip perfekt. Dabei kann es vorkommen, dass sich bestimmte Stellen als besonders Fehleranfällig herausstellen. Dann kann man dort zusätzliche Transistoren oder Signalleitungen (die eigentlichen Achillesversen, da nichtmal halb so breit) einfügen, um die Ausbeute zu verbessern.
Einsparen kann man die wieder, wenn man den Fertigungsprozess besser in den Griff bekommt.
 
Zuletzt bearbeitet:
@Unyu
Dein Link funktioniert leider nicht.

------

Das Beispiel von "hncam" war zwar jetzt nicht auf den G200b übertragbar, aber was die Hintergründe in Bezug auf Leckströme und High-K angeht, hat er das schon richtig gesagt...

Übrigens, Athlon 64 X2 @65nm war auch kein Riesenschritt zum Athlon 64 X2 @90nm.
 
Zuerst nicht, ja, aber das ist standard bei AMD. Führen sie einen neuen Prozess ein ist der nie besser als der vorherige. Mit der Zeit kommen neue Chiprevisionen und der Prozess wird verbessert und DANN hat er erst Vorteile.
Intel macht das zwar etwas besser aber auch hier ist noch einiges an Potential was spätere Prozessoren erst zeigen.
 
Zurück
Oben