News Hat nVidias G80 das „Tape-Out“ hinter sich?

Na dann ist mein nächster PC ja endlich komplett.

Schnelle G80 Karte, Core Duo und 400GB RAID 0 mit Backup...

Wenns das alles noch vor Vista und Crysis gibt dann freu ich mir 'nen Ast.
 
noxon schrieb:
Wo wir gerade beim Conroe sind. Der wird ja auch in 65nm Prozess gefertigt. Da sehe ich jetzt auch keinen Grund, warum der R600 nicht auch darin gefertigt werden soll. Die technik ist sicherlich machbar

Ein Prozessor ist bei weitem nicht so komplex und muss nicht solch eine Rechenleistung aufbringen wie eine Grafikkarte, die Grafikkarte ist schon seit Jahren mit Abstand die komplexeste und rechenstärkste Hardware im Computer, das Design ist komplex und von der Kühlung wird mehr denn je abverlangt und die Zeit zwischen den Release neuer Grafikkarten nahm auch ab - drei entscheidende Punkte dafür warum sich nicht Referenz Grafikkarten nicht mehr lohnen.
Nur weil es beim Prozessor funktioniert heißt es noch lange nicht das es bei Grafikkarten ähnlich sein wird - das sind zwei paar Schuhe, zumal Intel und AMD der Anfertigung selbst der Herr sind wodagegen ATI und NVIDIA auf TSMC und IBM bauen - zu aller erst sind es TSMC und IBM die hauptsächlich an der Anfertigung feilen ...

Und zum Thema R600 und G80, ich bin sehr gespann wie das Duel ausgehen wird aber Spekulieren wer wird klar besser sein zum Start ist sinnlos, ich warte eher auf die ersten Tests ...
 
Zuletzt bearbeitet:
die neuen GPUs werden wohl wieder alles in den bodenstampfen, freue mich jedenfalls wieder auf die benchmark-battles :D
 
Shader schrieb:
Nur weil es beim Prozessor funktioniert heißt es noch lange nicht das es bei Grafikkarten ähnlich sein wird - das sind zwei paar Schuhe
OK. Sehe ich ein. Trotzdem glaube ich, dass an dem Gerücht was dran ist, das der R600 in 65nm gefertigt wird. Ob das letztendlich überhaupt irgendwelche Vorteile bietet ist noch einmal eine andere Frage.

Ich hoffe ja, dass ATi dadurch wenigstens eine höhere Ausbeute hat und die Verfügbarkeit der Chips am Anfang höher sein wird, als das bisher immer der Fall war.
 
mmic29 schrieb:
entscheidend ;) . Nein, die Verlustleistung ist entscheidend, d.h. wie effizient der Chip mit der zugeführten Energie umgeht.
Dumm nur, dass das im Falle einer Grafikkarte dasselbe ist - das was an Srom reingeht, geht als Wärme ab. (den Lüfter mal außen vor)

Abgesehen davon halte ich 130 - 300 W für so übertrieben, dass man gar nicht erst drüber reden sollte. :freak:
 
freue mich auf die neuen grakas, aber ich glaube kaum, dass es sinnvoll ist schon wieder die aktuelle generation abzulösen. ich würde die Grakas erst mit Windows Vista launchen, da man dann bestimmt den passenden absatz hat (werbung etc machts möglich)
 
Ich hoffe die Next Gen läuft noch ohne 1000W Netzteil und Wasserkühlung.
 
@noxon
naja sie hätten das gleiche problem wie beim r520
sie setzen auf einen neuen prozess welcher noch unerprobt ist

hohe yields erreicht man durch einen ausgereiften prozess
mit 65nm senkt man allerdings die verlustleistung drastisch und spart einiges an produktionskosten(was im high-end wohl nicht ganz so wichtig ist)

aber mal schauen, ati hat mit sicherheit gelernt und wird den fortschritt bei tsmc richtig einschätzen

zu den 300w:
das muss man erst mal hinbekommen
jetzige verbrauchen grad ma 130w, das wär mehr als ne verdopplung
was soll das für ein chip werden? 600mio transistoren? bei 800mhz chiptakt?
 
Zuletzt bearbeitet:
Vesh schrieb:
freue mich auf die neuen grakas, aber ich glaube kaum, dass es sinnvoll ist schon wieder die aktuelle generation abzulösen. ich würde die Grakas erst mit Windows Vista launchen, da man dann bestimmt den passenden absatz hat (werbung etc machts möglich)
Zum Vista-Launch kommt dann der Refresh, der ein paar Kinderkrankheiten weniger hat und dazu nochmal schneller und günstiger ist.
Kommt doch prima...
 
Shader schrieb:
Ein Prozessor ist bei weitem nicht so komplex und muss nicht solch eine Rechenleistung aufbringen wie eine Grafikkarte
wenn man komplex mit transistor-count gleichsetzt von mir aus. was die komplexität der rechenoperationen angeht ist die cpu nach wie vor wesentlich flexibler und die graka einfach darauf gestrickt hunderttausende male das gleiche zu tun und zwar möglichst mehr als 30 mal in der sekunde.

was unified shader in hardware angeht: diese konstruktion kann insofern vorteile haben, da sie einen fragment- und einen vertex-shader in einem rutsch ausführen kann.
dass ein vereinheitlichter shader dabei langsamer ist glaub ich kaum - nur der transistorcount dürfte im vergleich zu einer architektur mit separaten einheiten höher sein.

was fertigungsprozesse angeht, da gibt es generelle unterschiede zwischen den industriezweigen. samsung z.b. fertigt flash-speicher in 45nm, wogegen komplexere, höher getaktete cpus der großen drei bei maximal 65nm sind. und auftragsfertigung - wie z.b. eben grakas - kriegt man derzeit volumen nur in 90nm und demnächst 80nm. bis herstellerunabhängige fabriken bei 65nm angelangt sind dauerts noch ein weilchen, 90nm ist ja auch erst seit ende letzten jahres in mode ;)
 
Zuletzt bearbeitet:
Also ich persönlich rechne mit keiner Graka in diesem Jahr. Der Weg zum Zoo wird wohl auch sein müssen, mal sehen welche Marathonhamster sie mir geben können damit ich am Strom sparen kann ;-)
 
riDDi schrieb:
was unified shader in hardware angeht: diese konstruktion kann insofern vorteile haben, da sie einen fragment- und einen vertex-shader in einem rutsch ausführen kann.


Kannst du mal erklaeren, was du hier mit "in einem Rutsch" meinst?
 
wahrscheinlich nur blödsinn... wird drauf rauslaufen, dass die unit vor der berechnung in den jeweiligen modus (fragment, vertex, geometrie) gebracht wird und dann in diesem takt nur die jeweilige operation durchführen kann :/

ich kann mir jedenfalls keine situation vorstellen, in der eine differenzierte architektur gegenüber einer vereinheitlichten irgendwelche vorteile hätte. mag sein, dass spezialisierte hardware meist schneller ist, allerdings denkst du da imo an komplexere systeme, ein shader führt ja nur sehr grundlegende rechenoperationen durch.
desweiteren verhindert die vereinheitlichte architektur engpässe, was zu stabilieren frameraten führen sollte.
 
Zuletzt bearbeitet:
die nachfolger von 7600 und x1800gto lassen bestimmt lange auf sich warten. die 7600er warn ja auch erst n halbes jahr nach den 7800ern kaufbar. oh oh oh, und ich werd demnächst meine 6600gt verkaufen und möchte aber gleich auf DX10 umsteigen. das heißt dann: S3 PCI mit 2mb ram (mit 60mhz getaktet)^^
 
Zurück
Oben