nVidia G80 mit externen Netzteil?

T&T

Lieutenant
Registriert
Feb. 2005
Beiträge
692
Schaut euch mal die news vom 13.Sept. auf www.3dcenter.de an! lt. The Inquirer braucht der G80 ein extra Grafikkarten-Netzteil außerdem soll der G80 erst Ende November fertig sein, und dann vorgestellt werden.

Also ich kann mir nicht vorstellen, das der G80 so ein extremer Stromfreßer ist, das dieser ein extra Netzteil braucht!

In Sachen Strombedarf, mach nv ja mit dem G71 alles richtig und erntet dafür auch Lob, also warum sollten wieder nen Chip bringen der ohne Ende Strom zieht?

Sind halt alles nur Spekulationen, wird werden sehen, auch was ATI macht mit dem R600...
 
Auf der einen Seite ist das durchaus vorstellbar, bei den immer weiter steigenden Leistungen der Karte. Aber andererseits dachte ich, dass der Stromverbrauch von GDDR4 um 40% (im Vergleich zu GDDR3) gesenkt wurden ist!?
 
@1
ganz einfach, der g80 wird aller vorraussicht auch in 90nm wie der g71 gefertigt
dürfte aber einige transistoren mehr an board haben
ist klar dass dann der stromverbrauch stark ansteigt

@2
der speicher macht ja kaum was aus an der grafikkarte(10watt?)
selbst wenn er dann nur noch die hälfte verbraucht ist das ein tropfen auf den heissen stein
 
Für mich geht die Entwicklung eindeutig in die falsche Richtung!
Was nützt es mir, wenn pro Stunde 10 Bäume gefällt werden müssen, damit ich die neueste Grafikdemo auf einigermaßen hohen Details spielen kann?
Die sollten endlich mal am Stromverbrauch der Monster arbeiten.
Denn man sieht ja zum Beispiel am Pentium-M dass es auch anders geht.
 
der markt will halt neue schnelle karten und nicht noch 6monate auf 65nm warten

immerhin hat man selbst noch die möglichkeit sich sparsame modelle auszusuchen
 
Also, dass es soweit kommt denke ich mal nicht, die 7950GX2 frisst ja auch nicht so unmengen Strom, und dass der G80 mehr als 2 Karten jetzt verbrauchen wird halte ich für unwahrscheinlich. Aber einfach mal abwarten, es wird immer viel spekuliert daher. ;)
Soviel mehr an Strombedarf kann ich mri einfach nicht vorstellen, wie auch schon gesagt, wegen dem G71 der dadurch auch schon gute Kritiken bekam. ;)
 
Ich denke und hoffe auch, dass es nicht so schlimm werden wird. Das artet ja echt aus.
Wenn man sich so überlegt, was CPUs verbrauchen. Dort versucht man ja auch den Stromverbrauch zu reduzieren. Ich finde das ja schon bei der X1900-Serie fast zu viel, aber wenn es noch viel mehr gibt, dann wirds echt hart.

kennyalive schrieb:
Für mich geht die Entwicklung eindeutig in die falsche Richtung!
Was nützt es mir, wenn pro Stunde 10 Bäume gefällt werden müssen, damit ich die neueste Grafikdemo auf einigermaßen hohen Details spielen kann?
Die sollten endlich mal am Stromverbrauch der Monster arbeiten.
Denn man sieht ja zum Beispiel am Pentium-M dass es auch anders geht

Da stimm ich dir zu 100% zu!
 
Ich finde das gar nicht schlecht. So wird das Netzteil im PC weniger belastet. Die Probleme mit zu schwachen NTs fallen endlich weg!

Dass die neuen GPUs bei gleichem Fertigungsprozess massiv mehr Strom brauchen war ja wohl klar!! -Auch der 65nm-Prozess kann da nicht arg viel ändern. Die GPUs sind mittlerweile eben so komplex, dass es nicht anderst geht.-Schaut mal eine z.B. die kleinste R580-GPU an (1900GT) . Unter min. 20 (besser 22A) auf der 12Volt-Leitung geht da gar nichts!

Es müssen neue Techniken gefunden werden.-Oder Techniken wie richtiges TBR weiterentwickelt werden.-Obwohl die aktuellen GPUs ja intern die Frames auch aufteilen.-Und mit den aktuellen HSR-Techniken kommen die GPUs schon recht nahe an die Effizenz eines TBR-Chips heran.-Das wäre aber ein Schritt in die richtige Richtung.

Ich bin mir ausserdem sicher, dass NV alles versucht hat, den G80 so sparsam wie möglich zu machen.-Es kommt aber ganz sicher wieder ein G81. Ich denke dass auch ATI über ein externes NT nachdenkt. Bei der Verlustleistung! NV hat z.Zt. massive Vorteile: Beide 90nm low-K, NV beim G71 ca. 280 Mio. Transistoren und ca. 195mm² Chipfläche / ATI beim R580(+) ca. 385 Mio Transistoren und ca. 360 mm² Chipfläche!!

Ein externes NT ist viell. gar nicht so schlecht. Es wäre ja sehr sicher auch nur für die High-End-Modelle nötig. Ohne PCI-Express 16x (ca. 75Watt zu ca. 25W. bei AGP 8x) wären heute viell. schon externe Netzteile nötig. -Die gibt es ja seit längerer Zeit für CF/SLI.

P.s Wollte nicht NV oder beide Hersteller auf 80nm umsteigen?

Gruss
 
Zuletzt bearbeitet:
gerüchte besagen das der r600 in 80nm gefertigt wird und der g80 in 90nm
aber von den 80nm prozess versprech ich mir auch nicht die welt
65nm wird da schon interessanter

aber ein extra netzteil halte ich für schwachsinn
durch die netzteil propaganda hat wiedeso schon jeder über 400watt, meist mehr
die graka muss erstmal gebaut werden wo das teil net reicht
sli/cf ist was anderes, aber da verbau ich lieber ein 550w netzteil
als ein 420w nt + so ein krümmeliges netzteil für den 51/4 schacht oder womöglich noch so einen externen quatsch
 
Zurück
Oben