News Neue Verlautbarungen zu R600 und G80

So ein Quatsch. ATI hatte meinte zur der CT, dass die Verlustleistung kommender Generationen nicht mehr steigen wird, man hätte das Problem vor Augen und man möchte GPUs mit weniger Verlustleistung entwickeln.
 
Bin ich der einzige der das so versteht??? 250Watt Leistungsaufnahme sind doch != 250Watt Verlustleistung o.O Trotzdem krass viel...
 
Beim R600 kann ich es mir vorstellen, aber bei der nVidia Grafikkarte nicht, vorallem nach den schön ruhigen und gut Kühlbaren GeForce 7 Karten.
 
Warum sollen 250WLeistungsaufnahme nicht 250W Verlustleistung sein? In was soll die Energie denn sonst umgewandelt werden außer Wärme?
 
@26: Dann hast du aber die NV4x bzw R5xx Generation verpasst, da war der Spieß nämlich umgedreht!
 
Also noch ist nix von ATi bestätigt, aber wenn es denn wahr sein sollte...
Ich hab eigentlich vor mir ein Crossfire-System mit 2x R600 und evtl. nen Kentsfield (QC) zuzulegen. Reicht da ein 700W NT oder zur Not noch 750W, oder is das immer noch zu schwach?? 250W wären echt krank. Lässt deinen PC 2h laufen und allein die Grakas verbrauchen schon 1kWh.(bei CF)
 
na dann warten wir mal auf portable mini atomkraftwerke, die man im zimmer neben an aufstellen kann um genügend saft zu bekommen ;)

250 watt finde ich jetzt einfach wirklich total gestört!
 
lool und ich finde 50 watt schon zuviel, aber wie 007 kommentiert hat, die amd designer werden da bald was dran aendern...

cheers
 
Hm das wär halt doppelt so viel wie meine übertaktete x1900xtx.
Steck ich halt beide pci-e Stromstecker in eine Karte, mir doch egal^^
 
The Inquirer sagt doch schon alles ...

Ich bezweifle, dass der R600 eine Verlustleistung von 250W haben soll. ATi könnte sich das Geschäft und die "Fans" nicht entgehen lassen wollen.

Wie bereits erwähnt wurde ... Tee trinken und abwarten.
 
Die Jungs die noch bei Mama wohnen wird das kaum kratzen , die haben ja bestimmt noch nie eine Stromrechnung gesehen oder wissen bestimmt nicht mal das das SLI Gedaddel auch was extra kostet und es eben nicht nur mit dem Geburtstagsgeschenk getan ist.
 
250Watt ???

Da muss ich wohl mein Atomkraftwerk anwerfen um den Pc booten zu können ^^. Wenns so weitergeht dann kann man sich die Zentralheizung sparen, denn der Pc wärmt die Wohnung schließlich auch!! So kann man wenigsten einen Vorteil daraus ziehen!!

Einfach nur LOL ! Mal abwarten was wirklich daraus wird aber heutzutage muss es doch den Chipherstellern einleuchten dass der Trend eher in Richtung weniger Verbrauch, weniger Abwärme und kleinere Strukturen geht und nicht umgekehrt!!

So kanns doch echt nicht weitergehen! Ich will doch nicht mehr Geld im Jahr an Stromkosten ausgeben als der Pc überhaupt wert ist.

Gruß
 
Zutrauen täte ich es ihnen schon, denn außer mit roher Rechenperformance wissen die GPU-Hersteller leider nicht mehr, wie sie sich sonst gegenseitig Konkurrenz machen sollen. Was frühere Sonderfeatures wie MPEG2-Beschleunigung, TV-Out, Video-In und DVI-Dual-Head anbelangt, haben die beiden Hersteller schon alles standardmäßig auf ihren Karten verbaut.

Außerdem haben die beiden Kontrahenten wohl beide panische Angst, dass sich doch irgendwann im Spieler die Erkenntnis breit machen könnte, dass noch schnellere 3D-Hardware nicht mehr automatisch optisch bessere 3D-Spiele impliziert, weil die sichtbaren Unterschiede kaum noch groß sind und die künstlerische Gestaltung des Spiels und das Talent der Grafikdesigner mehr und mehr in den Vordergrund tritt (da wo die Filmindustrie mit CGI jetzt schon angelangt ist). Dann haben die beiden wirklich ein Problem - und deswegen müssen auf Teufel komm raus noch erkennbare Unterschiede zur Vorgängergeneration produziert werden - selbst wenn man dazu an die Grenzen des Machbaren und Sinnvollen gehen muss.
 
@35

lol, 700 Millionen Transistoren, 1,5 ghz core clock, naja, wers glaubt....

also wenn der g80 wirklich 700 Millionen Transistoren(schon allein die Zahl ist unglaublich) hat, dann hat auch der g80 mindestens 250 Watt Verlustleistung...
 
Zuletzt bearbeitet:
Irrtum , Nvidia G80 soll bei ca. 175W liegen.
 
sNOOp2k05 schrieb:
@35

lol, 700 Millionen Transistoren, 1,5 ghz core clock, naja, wers glaubt....

also wenn der g80 wirklich 700 Millionen Transistoren(schon allein die Zahl ist unglaublich) hat, dann hat auch der g80 mindestens 250 Watt Verlustleistung...

Ich vermute ganz stark, dass auf der Karte 2 GPUs drauf sind. Je GPU 350 Mio. Transistoren und 750 MHz und da kommen schon ganz schöne Zahlen bei raus wenn mans zusammenrechnet. Seltsam ist nur wie es zu dieser Speicherbestückung kommt.
Schade dass es zu einer Verspätung gekommen ist :(
Ich glaub jedenfalls auch nicht an die 250 Watt, könnte mir aber trotzdem vorstellen das es bei 'nem CF-Verbund zu diesem Verbrauch kommt.
 
Zuletzt bearbeitet:
... ist es nicht schön, wie mal wieder spekuliert wird?
Wirf einfach eine beliebige Zahl in die Runde und die Statements treiben wahrlich die absurdesten Blüten ...
 
Zurück
Oben