News IDF: 150 Watt für High-End-Grafikkarten

Ahrgl.. Mir kommt keine GraKa ins Haus die so viel Strom verschwendet.. Da verzichte ich lieber auf "die neuesten Spiele"... Da lob ich mir den GameCube, klein leise, im vergleich zur Xbox Stromsparend und trotzdem sehr leistungsfähig.

Die PCIe Karten verbrauchen ja mehr Strom als die ganze Xbox?? Ist ja krass..

Nope, ich will nicht noch mehr Atommeilern die Kohle reinstecken..

/ajk
 
MacGyver schrieb:
Ich habe es ja schon mehrmals in diesem Forum erwähnt.
Diese Stromfresserei bei GraKas sollte in hohem Maße die Kaufentscheidung von uns allen beeinflussen.
Bei mir ist das schon der Fall. Habe mir keine GeForce 6800 gekauft, weil die momentan eh zu teuer ist, zu viel Strom frisst und von keinem Spiel wirklich ausgereizt wird (es sei denn man spielt mit zig-fach Anti-Aliasing und in astronomischen Auflösungen).

Bei über 200 Mio. Transistoren brauchts halt viel Strom um die Karte zu betreiben. Das wird in Zukunft nicht anders werden.
Das mit der 6800 Utra kann ich verstehen, dass sie laut ist und Strom frisst. Aber dass muss nicht sein.
1. Es gibt mobile Grafikkarten mit weit geringeren Stromverbrauch, aber die entwicklung ist nicht weit fortgeschritten.
2. Bei neuen fertigungstechniken ist es möglich, Strom zu sparen. Zum Beispiel braucht der neue Intel Prozessor mit 1,7Mrd Transistoren 100Watt, bei 5facher Transistorzahl.
Auch mit neuen Materialien kann gespart werden(wie bei SiC).
Es ist nur eine Frage des Aufmandes, und eine Frage, ob sich die Kunden dass Kaufen. Wenn z.B: Stromverbrauch eine wichtige Kaufentscheidung währe, würden Entwickler auch mehr dahin Entwickeln. Wenn ihr also 6800 Ultras kauft, ist das beste Beispiel

:D
 
Wartet erstmal ab wie es mit den Stromkosten sich entwickeln wird, sobald die Regulierungsbehörde für Energie aufgebaut ist, wird den grossen Konzernen erstmal der Wind aus den Segeln genommen, kann ja nicht sein das wir Strom an unsere Nachbarländer verkaufen und die dort weniger für das Strom bezahlen. Dann lobe ich mir auch eine 6800Ultra, aber das ist im Moment auch ein NICHTKAUF bei mir. Mal abwarten.
 
ist euch mal aufgefallen, daß die entwicklung bei spielen in den letzten jahren nur immer "besser" (realistischere) grafik hervorgebracht hat? wirklich coole spiele gabs imho schon lange nicht mehr.
 
Jaja, du hast recht. Ich spiele seit Monaten kein Game mehr, weils mich nicht mehr interresiert.

Das letzte Spiel was ich gespielt habe war Diabolo, nach Warcraft III und Gotic 2 Add-On.

Traurige entwicklung :(
 
Tjo das ist halt das hohle ausfressen des Marktes. Ist auf dem Konsolenmarkt auch so, der hype wird immer krasser und die besten Spiele sind schon lange her.. Einfach aber interessant, oder auch bombastisch und ergreifend usw..

Ist wie bei Hollywood.. Immer krassere Filme mit mehr Tricks usw.. aber immer hohler.

Da ist "Hero" besser :)


/ajk
 
Der Trend geht wohl wirklich dahin, dass High-End-Rechner nicht mehr so einfac zu finanzieren sind, weil sie nicht mehr nur in der Anschaffung super-teuer sind sondern auch im Unterhalt...traurig...


Gab's da nicht mal irgendwas, das von irgendwem erforscht wurde, dass die Eindeutigkeit der elektrischen Signale vergrößern konnte?
Das hiesse dann, dass statt 100.000en von Ladungen nur noch einige wenige benötigt würden, um zwischen 1 und 0 zu unterscheiden. Da könnte man erstens viel energiesparen und die Rechner viel höher takten :D
 
TSHM schrieb:
150 Watt für Grafikkarten, 130 Watt für CPU, wohin soll das führen? Inzwischen haben Grafikkarten im Leistungsverbrauch die CPU's überholt. Hoffentlich gibt es auch Leistungsstarke energiersparende Karten, á lá ULV.

[EDIT] An die Vorredner: Das mit dem hohen Stromverbrauch ist ein Teufeskreis. Wie wollen bessere Game-Performance, die Spiele-Entwickler machen dass, auf kosten von Leistung, und die Hardware Hersteller ziehen mit. Die Gamer kaufen dann wieder nur die "guten"(Stromverbrauchenden)Karten usw :rolleyes: :eek: :(

Das ist schon richtig, aber dennoch ist die transistorenanzahl ein sehr wichtiger Faktor beim Stromverbrauch. Die Verbauweise ist natürlich ebenfals ganz entscheidend, deshalb verbrauchen Grafikchips, rechnet man jetzt einfach mal pro Transistor, erheblich mehr als CPUs. ATI schafft seine Stromersparnis mit dem R420 gegenüber dem NV40 von Nvidia vor allem mit der Transistorenanzahl, alle anderen Aspekte sind daran minder beteiligt. Damit der R420 nun mit weniger Transistoren auskommt fehlen ihm eben ein paar "Next-Generation-Features" gegenüber NV40. Eine Radeon X800Pro braucht ca. 50 W (http://www.xbitlabs.com/articles/video/display/ati-powercons_5.html) eine Geforce 6800 GT ca. 55 W (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_3.html) Eine Radeon X800XT Platinum Edition zieht bei Vollast ca. 65 W (http://www.xbitlabs.com/articles/video/display/ati-powercons_4.html) eine Geforce 6800 Ultra (die normale Ultra) ca. 75 W (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_2.html) während bei diesem ganzen Vergleich unbedingt zu berücksichtigen ist, dass ATI seine aktuelle Generation im direkten Vergleich stets deutlich höher taktet als Nvidia (http://www.3dcenter.de/artikel/2004/05-05_a.php), die Stromersparnis pro Takt gesehen also sehr hoch ist.

Ein Teil des Marktes achtet bereits seit einiger Zeit auf den Stromverbrauch und das schlägt sich in ATIs Entwicklung auch bereits nieder und 50 W für eine Oberklassekarte (Radeon X800 Pro) sind meiner Meinung recht gut bemessen. ;)

Dass wir wirklich einmal eine 150W Grafikkarte haben werden bezweifle ich auch stark, da eine so hohe Leistung auch eine entsprechend hohe Verlustleistung bedeutet, also eine entsprechend hohe Wärmeentwicklung bedeutet und 150 W sind in einem nicht überdimensional groszen PC ohne Kubikmeter-Radiator nicht mehr leise abführbar was nicht nur für einen Teil des Marktes, sondern, wie die 5800 Ultra uns bewiesen hat für die grosze Masse des Marktes ein gewichtiges Kaufkriterium darstellt.

Ebenfals bedenken sollte man, dass es sich dabei ja um Leistungsspitzen handelt, die Leistungsspitze einer GF 6800 Ultra liegt bereits über 100 W dennoch braucht sie in Dauerauslastung im Schnitt "nur" 75 W.
 
Zuletzt bearbeitet:
@12 hey "energieschoner" ist mein wort ;) ach ja das wort steht schon unter copyright also könnt ihr schon mal bezahlen :p ;) (sorry for spam)
naja aber gegen den hohen energieverbrauch muss echt was getan werden so kann das einfach nicht weitergehen. wenn das so weitergeht bringt uns der pc noch um hasu rund ruhm...(*rausreden*:D)
 
@NEW´s

ich muss meinen senf auch dazu abgeben :)

mehr als 10Watt für eine graka sind nicht notwenig, und jeder der das gegenteil behauptet hat schlicht keine ahnung. Die stärksten DSP´s verbrauchen um die 3Watt und haben mehr power wie die stärkste Graka.
Ich bin dafür das den großen graka-herstellern das geld ausgeht um eine neue graka zu entwickeln. Vor 10jahren ist nicht jeden monat eine neue graka rausgekommen. zu ISA-Zeiten ist die grafik der spiele auch immer besser geworden, obwohl man keinen neuen rechner oder neue graka gekauft hat. Überlegt mal schon alleine der sprung von Warcraft 1 auf Warcraft 2, einfach der hammer. und es ist trotzdem noch gut gelaufen.
Oder noch früher der alte C64, immer bessere grafik trotz gleichem system.
 
xLoMx schrieb:
@NEW´s

ich muss meinen senf auch dazu abgeben :)

mehr als 10Watt für eine graka sind nicht notwenig, und jeder der das gegenteil behauptet hat schlicht keine ahnung. Die stärksten DSP´s verbrauchen um die 3Watt und haben mehr power wie die stärkste Graka.
Ich bin dafür das den großen graka-herstellern das geld ausgeht um eine neue graka zu entwickeln. Vor 10jahren ist nicht jeden monat eine neue graka rausgekommen. zu ISA-Zeiten ist die grafik der spiele auch immer besser geworden, obwohl man keinen neuen rechner oder neue graka gekauft hat. Überlegt mal schon alleine der sprung von Warcraft 1 auf Warcraft 2, einfach der hammer. und es ist trotzdem noch gut gelaufen.
Oder noch früher der alte C64, immer bessere grafik trotz gleichem system.

Und du willst uns jetzt weisz machen Doom3 wäre ähnlich auch auf einer Geforce1 machbar gewesen? Damals, also z C64-Zeiten begnügten sich Spielemacher mitunter mit einer schlechteren Grafik, weil sie schlechter entwickeln konnten, wirfst du heute eine NV40 oder R420 einem Team der damals üblichen Grösze vor passiert nicht viel, klar sie werden ein paar Shader einbauen, werden vielleicht mit Curved Surfaces verschiedene realistisch heruntergerechnete Drahtgitter modellieren aber ihr Spiel wird doch im Endeffekt nicht sonderlich schön aussehen - verglichen mit dem was wir von den 3D-Fabriken unserer Zeit spendiert bekommen. Die Unreal-2-Engine kann man nicht besser auf NV25 beschleunigen als dies derzeit der Fall ist, auch wenn das viele partout nicht glauben wollen. Es ist bereits viel, unglaublich viel Softwareentwicklungsarbeit getan, wenn das erste Spiel mit der entsprechenden Grafikengine erscheint; früher war auch das deutlich anders - Richard Garriott hat Ultima absolut allein programmiert, er hat absolut allein alles programmiert was zu dem Spiel gehörte; soetwas IST heute unmöglich. Das Optimierungspotential das fertige Softwareentwicklungen heute noch zulassen wird im allgemeinen weit überschätzt - Zeta ist nicht schneller als Windows weil es "optimierter" wäre, sondern weil es schlichtweg weniger tut und jeder der Linux nutzt weisz viel kostet viel - egal mit welchem Betriebssystem. ;)

S3 fertigt 10-W-Grafikkarten, das hängt auch mit der Gesamtstrategie von Via Technologies zusammen also kauf dir eine wenn du willst.
 
Zuletzt bearbeitet:
Zurück
Oben