R600 - Watt-Horror ?!

cyrezz

Rear Admiral
Registriert
Jan. 2004
Beiträge
5.426
Ich habe gerade folgendes gefunden: (GameStar Meldung)

"ATIs kommende GPU mit dem Codenamen R600 soll sehr, sehr schnell sein. Aber nicht nur das: Sie soll im selben Atemzug gehörig viel Watt schlucken. Konkret: Unter Volllast soll eine Grafikkarte mit diesem Chip bis zu 250 Watt brauchen. Im Vergleich zu ATIs derzeitigem Top-Modell - der Radeon X1950 XTX - wird damit die doppelte Leistung nötig sein; Karten dieser Kategorie brauchen rund 125 Watt.

Was mit der hohen Leistungsaufnahme einhergeht ist die Abwärme. Ersten Berechnungen zufolge wird auch die Temperatur, die der 80nm-Chip erreicht, doppelt so hoch sein, wie die seiner schnellsten Vorgänger. Das würde auch ATIs Engagement in der Entwicklung einer brauchbaren Kühllösung erklären."



Also wenn dem wirklich so ist, dann zweifel ich langsam echt an der Entwicklung der GPUs. Leistungsfähigkeit schön und gut, aber das ist ja ne Frechheit, wenn der Stromverbrauch und die Verlustleistung verdoppelt werden. DAS ist dann mit Sicherheit ne Totgeburt!

Es ist ja schön zu sehen, dass nVidia aus dem Fiasko mit der FX Serie gelernt hat und die aktuellen GeForce nicht so viel Strom verbrauchen, da sind die aktuellen ATIs etwas hungriger, aber nein, das geht ja mal gar nicht!! Man muss auch mal bedenken, dass es sich um einen 80nm Chip handelt.... :freak:

Es gab doch mal vor nicht allzu langer Zeit schon Grakas mit externem Netzteil, blüht uns da jetzt ne ganze Serie?!
 
Zuletzt bearbeitet:
Echt? Oh, habe ich gar nicht mitbekommen... Hmm, habe gehofft, dass das Rennen zwischen R600 und G80 spannend wird, aber ehrlich gesagt ist es mir dann egal was der R600 leistet, bei den eventuellen Temps und Verbrauch sage ich definitiv NEIN DANKE!

EDIT:
Ja danke für den Link... das macht mir Angst, dass wohl auch nVidia in diese Richtung gehen wird... Dann warte ich wohl mal eher auf den Refresh-Chip oder die dann nächste Generation. Also das will ich echt nicht unterstützen. Ich habe zwar zum Glück eine Wakü, aber selbst da wird die Temp dann wesentlich höher sein und ich bin ja extra auf Wakü umgestiegen um keine Heizung mehr neben mir zu haben! Was denken sich die Hersteller bitte nur dabei?! Intel hat es ja zum Glück auch geschafft mehr Leistung bei weniger Abwärme zu produzieren, also BITTE ATI & nVidia! baut mal Karten die schnell und nicht Stromhungrig sind! Demnächst bekommt man dann noch nen Stromvertragspartner als Packungsdreingabe einer Grafikkarte... :(
 
Zuletzt bearbeitet:
Wurde wie gesagt schon einmal hier im Forum besprochen und der Großteil meinte, dass das sicherlich nicht stimmen wird.

Den ATi wird doch nicht so dumm sein, und eine mehr oder weniger "schlechtere" Karte rausbringen und diese dann R600 nennen.
Kann ich mir persönlich nicht vorstellen, aber möglich ist alles!

Lg BlackBoXX :D
 
am besten gleich ein neues NT dazu kaufen oh mann dass ist derb, und wie hoch die Temps dann sind möchte gar nicht wissen:evillol:
 
Tja da kennt Ihr wohl nicht diesen Thread. Hier wird es aktuell für durchaus möglich gehalten zumindest 200W. Allerdings für die komplette Karte bei maximaler Auslastung mit DX10 usw. was dann im Endeffekt eh nie erreicht wird.

CyReZz schrieb:
Demnächst bekommt man dann noch nen Stromvertragspartner als Packungsdreingabe einer Grafikkarte... :(

lol :D
 
Zuletzt bearbeitet:
Für meinen Geschmack wäre der Sprung für die paar Änderungen dann von 125 auf 250 Watt zuviel, evtl. zählt das für CF oder für zwei Chips auf einer Platine ähnlich der GX von nVidia. Aber überlegt euch mal was 250Watt wären!!
 
hammerhart... 250W!
die dinger werden bestimmt noch von den stromanbietern teils subventioniert, damit diese absatz finden ;-)
 
Ich würde mal sagen: "Nichts wird so heiß gegessen,wie es gekocht wird"

Ein Gemache ist das hier...
 
*gähn*

Wie oft denn noch dieses Thema?

Meiner Meinung nach nur heiße(:lol:) Luft - am besten erstmal abwarten und Tee trinken.

Das der R600 viel verbrauchen wird will ich nicht absterieten, aber bestimmt nicht soviel, auch galube ich nicht das die Karte unter maximal Belastung 250W verbrauchen wird.
 
Eben, sollen die nur ihr Zeug schreiben. Ich schaue mir mal die Benches an, und vergleiche und tüftle und komme dann zum Ergebnis, dass ich ein neues NT brauche ;) oder so..
Aber bis dahin ist mir ziemlich egal.
 
Was bedeutet eigentlch doppelt so hohe Temperaturen? Wieviel wär das dann? So 100-130°C unter Volllast und 60-80°C unter Windows?
Das kann ich mir aber nicht vorstellen, müsste da nicht die Lebenszeit der Karte extrem darunter leiden?
 
Hallo, also 250 Watt halte Ich auch für ein bisschen übertrieben, aber es scheint schon was dran zu sein an den hohen Angaben, die man überall liest:

Zitat: "Natürlich bleibt abzuwarten, was ATI und nVidia diesbezüglich wirklich tun werden, aber zumindestens läßt sich konstatieren, daß bisher alle Gerüchte bezüglich der ersten Direct3D10-Generation von recht großen und damit stromfressenden Grafikchips gesprochen haben, prinzipiell an dieser Theorie also etwas dran zu sein scheint."

Dazu scheint auch zu passen, das sich der R600 wohl auch verspätet, könnte etwas mit der Suche nach einer vernünftigen Kühl-Lösung zu tun haben:

Zitat: "Im übrigen soll ATIs R600-Chip nun im Januar oder Februar anstehen - nVidias G80 wird dagegen noch im November diesen Jahres erwartet"

Bin mal gespannt, ob denn wenigtens Nvidia mit dem G80 (der ja noch keine USA hat) pünktlich auf den Markt kommt.

PCB
 
Ich glaube die Temperaturen würden doppelt so hoch sein, wenn sie nicht, oder "nur" genauso gekühlt werden wie bisher. Daher muss man wohl mit grösseren, schnelleren, lauteren oder technologisch besseren Lüftern rechnen, damit man die Temp wieder auf "normal" bekommt.

cu
 
ich finds unglaubwürdig, meine vor paar Wochen gelesen zu haben das sich die 250W auf 2 Karten beziehen !

ausserdem was soll da großartig am chip verändert worden sein das der auf einmal doppelt soviel verbraucht ?

der neue ATI Chip in der XBox360 verbraucht doch auch net soviel und ist unseren GK in sachen technologie vorraus

bissel höhere Taktraten, eine etwas andere Architektur brauchen keine 100 W mehr, somal die Strukturen noch weiter verkleinert werden

bei den temps wäre ich aber vorsichtig, kann gut sein das durch die höheren taktraten die Temps höher liegen als jetzige, aber ich denke das belöuft sich auf 10-20 ° , mehr aber auch net !
 
Doppelt so hohe Temps? Nie - oder höchstens mit dem genialen;) Kühler der X1900xxx-Reihe. Ein Zalman kann diese Karten doch wunderbar kühlen, warum sollte dann nicht auch ein guter/neuer/überarbeiteter Standartkühler so etwas kühlen können. Außerdem glaube ich nicht das die Temps so dramatisch steigen, vllt ein par Grad mehr.

1.111 Posts - nun zum zweiten mal *lol*
 
Freu mich schon auf Grakas, die über 4 Slots gehn und n eingebautes 500 Watt-Netzteil ham. :lol:

Wie schon vorher erwähnt: Abwarten.
 
Zurück
Oben