News R600: 31,5 cm lang und 270 Watt Verbrauch?

Status
Für weitere Antworten geschlossen.
Hi,

erm also:
1. Ich weiss ja nich aber die neuen Grakas heißen doch AMD und nicht mehr ATI, also muss die Karte schon ziemlich alt sein!?! (Meiner Meinung nach)
2. Kann gut sein das es sich daher um eine der ersten Testmuster handelt ohne jeglich Optimierung, rein um die Leistung zu testen.
3. Halt ich es für unwahrscheinlich das man sowas auf den Markt wirft, dafür hat AMD/ATI definitiv zu viel Erfahrung.
 
@schoolisoutfan

Das ist das GesamtSystem , eine 8800gtx alleine zieht sicher keine 292W.
 
willi42 schrieb:
Also ich hab schon ein schlechtes Gewissen mit meiner 8800GTX.
Mein Rechner braucht insgesamt viel zu viel. Trotz dem Verlangen nach immer mehr Leistung hab ich mich entschlossen, in Zukunft keine Hardware anzuschaffen, die das Leistungsvermögen meines 500W Netzteils überfordert.
Im Grunde ist die Grenze des Vernünftigen schon lange überschritten.
Dass ATI jetzt mit 270 Watt nochmal kräftig nachlegt, kann ich nicht mehr nachvollziehen.
Ich weiss, dass ich als Kunde für diese Situation mit Verantwortung trage.
Auch Vista wird mit seinen immensen Hardwareanforderungen weiter an der Verbrauchsspirale drehen.
Es wird sich erst etwas ändern, wenn die Verbraucher anfangen, über die Resultate dieses Wahns nachzudenken. So langsam tut sich auch in meinem Hardware-verrücktem Kopf was. Wer Kinder hat, fängt vielleicht etwas früher mit dem Nachdenken an.

Das ist genau meine Meinung.

Mein System verbraucht unter Volllast zum vergleich 250Watt und das ist eindeutig zu viel!

Wir haben zwar den biligsten Strom von ganz Europa, deshalb kauf man sich aber doch keine solche Karte? Irgendwo braucht es doch etwas logischer Menschen Vertand.
 
Zuletzt bearbeitet:
Meins 230W , ich will die 7800GT eventuell auch wieder rausmachen falls P/L und Energie einer 8300GS stimmig ist.
 
FaZe schrieb:
Joa und für einen Veganer bin ich n Tierquäler und Mörder ... :freak:

Ich kauf mir, wenn ich mal n Haus bau, ne Solaranlage aufs Dach um mein schlechtes Gewissen loszuwerden ... :cool_alt:

Leute kauft euch lieber n einigermassen Umweltschonendes Auto (keines Falls Diesel ) ;)
das bringt viel mehr als sich über 30-40 Watt mehr Verbrauch einer Graka aufzuregen, die sich eh nur eine Hand voll Leute kaufen !

Mfg

LOL. Warum keines Falls ein Diesel? Dieselmotor hat einen höheren Wirkungsgrad als der Otto-Mottor. Das einzige Problem sind die Partikel und dafür gibt es jetzt Partikelfilter.
Im Übrigen sind alle sogenannten Drei-Liter-Autos Diesel, da Benzinfahrzeuge einfach mehr verbrauchen.

Veganer würde im Grafikkartenmakt "On-board Grafik" bedeuten^^
Wir wollen ja auch nicht übertreiben. ;) :)

Solaranlage? Meinst du so eine Anlage, die mit Hilfe der Sonnenstrahlen Wasser erwärmt oder eine Photovoltaikanlage, die Strom produziert?

Bei der Herstellung so einer Photovoltaikanlage wird ziemlich viel Energie verbraucht. Vor allem beim Herstellen von Silicium. Wegen des zur Zeit relativ geringen Wirkungsgrades muss so eine Anlage erst mal eine Weile arbeiten bis sie erst mal die Energie geliefert hat, die für ihre Herstellung verbraucht wurde. (Da hoffen noch viele auf den Durchbruch der Dünnschichttechnik, womit man den Anteil des teuren Siliciums signifikant reduzieren kann.) Was ich damit sagen will? Energie sparen ist leichter als regenerative Energie zu erzeugen.

Kleiner Nachtrag:
"Die energetische Amortisation ist der Zeitpunkt, zu dem die Energie, die für die Herstellung einer Photovoltaikzelle aufgewandt wurde, durch selbige wieder erzeugt wurde. Am besten schneiden Dünnschichtzellen ab. Ein Solarmodul (ohne Rahmen) mit solchen Zellen amortisiert sich nach etwa 2 - 3 Jahren. Polykristalline Solarzellen benötigen zur energetischen Amortisation etwa 3 - 5 Jahre und monokristalline Solarzellen benötigen 4 - 6 Jahre. Da eine Solaranlage nicht nur aus den Modulen, sondern u.a. noch aus einem Montagesystem und einem Wechselrichter besteht, erhöht sich die Dauer der energetische Amortisation einer Solaranlage gegenüber einem Solarmodul um etwa ein Jahr."
Quelle: http://de.wikipedia.org/wiki/Solarzelle
 
Zuletzt bearbeitet:
also erstmal muss ich mich wundern was hier einige leute so schreiben.

eine 8800gtx hat eine max. leistungsaufnahme von ca. 145watt. das heißt ein paar watt (ca. 5) weniger und man hätte nur einen stromanschluss benötigt.

die 8800gtx hat eine vorbereitung für einen 8pin pcie stromanschluss damit man dann nur ein kabel schließen muss. nicht wie bei der ati einen 8pin und einen 6pin!

ATI grakas haben schon immer mehr strom verbraucht als nvidia grakas.

wenn man dann noch bedenkt das der G80 noch in 90nm hergestellt wird und der r600 in 80nm dann wundert man sich ja schon das der stromverbrauch hoch statt runter geht.

es dauert ja nicht mehr so lange bis die karte das ist also abwarten und tee trinken!

es vergessen ja wohl auch alle das selbst wenn der r600 schneller ist als die 8800gtx das nvidia schon die "8900GTX" als antwort hat. da ja "welten" zwischen den karten liegen was veröffentlichung angeht.

bitte tut mir und den anderen usern hier den gefallen und schreibt nur was dazu wenn ihr euch in dem gebiet auskennt! Und für die leute die nicht begreifen das ATI ATI und AMD AMD bleibt es ist so! nur die motherboars bekommen die bezeichnug AMD bei den grakas bleibt alles beim "alten"
 
Zuletzt bearbeitet:
Aber man weiß nicht, wie viel schneller (oder ob) die R600 sein wird gegenüber der 8800 GTX, bzw. ob die 8900 GTX da dann wieder aufholen könnte und wer weiß, was ATI/AMD neben der R600 noch entwickelt, bzw. ob es da einen Nachfolger gibt, also eien X2900 XTX ;) der dann auf den Markt kommt.

Beim R520 gabs ja auch ach und krach bei der Entwicklung, so dass der Nachfolger ja schon fertig war (zumindest hatte die X1600 XT schon 3 Shader pro ALU, der R520 nur einen Shader).
 
Soul_Ripper schrieb:
ATI grakas haben schon immer mehr strom verbraucht als nvidia grakas.

[/b]

LOL

als die X800 von ATI auf dem Markt war gabs von Nvidia die 6800er und die brauchte viel mehr Strom.
Ab diesem Zeitpunkt gings irgendwie Bergab mit den Grakas. Schade dass ich meine geliebte X800pro verkauft hab, aber wenn die Leistung nicht mehr Zeitgemäss ist tut man halt so einiges....

Hab momentan eine 7900GTX, nicht dass man mir noch vorwirft ich sein ein ATI-Fanboy.
 
Also ich glaube kaum, dass das die echte R600 ist, allein schon wegen dem ATi-logo, müsste ja jetzt eigentlich AMD sein.
Außerdem denke ich nicht das die so ein Monster auf den Markt werfen. Da hatte wohl jemand keine News...

mfg Backslash
 
Wow! So viele Kommentare hats lange nicht zu einem Beitrag gegeben!
Nichtmal der Vistastart hat derart Aufsehen erregt.

Aber es sind sich ja zum Glück beinahe alle einig, das diese Karte kein echter Fortschritt ist!
Es sollte eine Absprache zwischen den Großen Herstellern geben, in der sie sich einigen, das die Performanceschlacht nur bis zu einem gewissen Stromverbrauch ausgefochten wird!

Diese Auswüchse sind beinahe lächerlich!
Ich kann mich noch gut daran erinnern das es damals schon den Ein oder Anderen Aufschrei gegeben hat als die Geforce 1 GTS nicht in jedem Mobo lief, weil sie für damalige Verhältnisse zu viel Strom zog.
Heutzutage wäre ein solcher Stromverbrauch gar lächerlich gering.
 
Naja mal sehen angeblich Plant Nvidia und vielleicht auch ATI schon bald die CGUs in 65nm zu fertigen also Nvidia auf jedenfaöl mit dem 8900 der soll in der Struktur gefertigt werden wann der aber erscheint steht in den Sternen oder ggf im Kaffesatz :evillol:
 
@Voyager10: Dann vergleiche bitte auch richtig! Nimm die 6800Ultra gegen die x800 XT PE das wären dann 25W Unterschied...
 
Mein System braucht unter Vollast 320Watt :freak: ich denke auch Mal das ich bei meinen nächsten Hardwarekauf etwas den Verbrauchsfaktor miteinfließen lasse bzw.

Vielleicht kauf ich mir später wieder ein Notebook kaufe denn das braucht unter Vollast 45W (centrino 1,77Ghz mit 6600 Go) Ich denke Mal mit einen guten Notebook kommt man so gesehen am bliligsten weg das Blöde is eben nur Man kann außer den Ram (eventuelll CPU) nix daran rumbasteln.
 
warum glaubt ihr eigentlich alle, dass es ein Fake ist nur weil ATi anstatt von AMD drauf steht? Hat AMD nicht irgenwann, in der noch nicht allzu weit entfernten Vergangenheit bekannt gegeben, dass sie den Namen ATi weiter verwenden werden, da dieser durch aus einen gewissen Faktor in Sachen Marketing und Image hat?

Zudem ist es auch absoluter Schwachsinn solche Dinge zu schreiben wie:

Also ich glaube kaum, dass das die echte R600 ist, allein schon wegen dem ATi-logo, müsste ja jetzt eigentlich AMD sein.
Außerdem denke ich nicht das die so ein Monster auf den Markt werfen. Da hatte wohl jemand keine News...

mfg Backslash

zudem mehrere Quellen das selbe sagen, nämlich dass der R600 viel Strom verbrauchen wird (und vermutlich auch schneller als nVidia ist).

Trotzdem schließe ich mich (fast) allen hier an und sage, dass es ein Schritt in die falsche Richtung ist. Zwar sind es eh nur High-End-Karten - hoffentlich kommen auch noch schnelle Mainstreamkarten, die weniger Strom verbrauchen - , aber die Prozessorhersteller (vor allem Intel) musste doch schmerzhaft erfahren, dass die Kunden einen geringeren Stromverbrauch verlangen. Also haben sie aus ihren Fehlern gelernt und schnellere und VERBRAUCHSARME Prozessoren entwickelt.

Da AMD bei ATi nun eine Menge zu sagen hat, könnten sie evtl. schon mit der nächsten Generation auch diesen Schritt in der GPU-Branche einleiten - das wäre zumindest meine Hoffnung.

Es sei denn, man würde eine C&Q ähnliche Funktion integrieren, so dass die Grafikkarten nur dann volle Leistung haben und damit der Energieverschwendung ein Ende gesetzt werden würde...


RebewMot
 
yoghurt schrieb:
das ding hat wahrscheinlich einen wirkungsgrad von 1% :(

Ich hab schon die sehr dummen Beiträge vermisst. Weißt du überhaupt, wovon du redest?

Die Karten setzen so gut wie jedes einzelne Watt direkt in Wärme um - da ist der Wirkungsgrad sogesehen fast 100%.

Es geht bei int. Schaltkreisen um die "Performance pro Watt" - also Rechenleistung pro Leistungsaufnahme. Das hat mit "Wirkungsgrad" nichts zu tun.

Und an alle hier nochmal:
Da die Leistung eben in Wärme übergeht, muss jene Leistung auch als Wärme abgeführt werden! Da der Chip einen bestimmten Temperaturwert nicht überschreiten sollte, muss der Kühler dementsprechend konstruiert werden - aber der Kühler vom R600 sieht nicht danach aus, als könne er 270W bei circa 50-70°C abführen!

Und an alle, die meinen, der R600 nehme zuviel Strom: Wer Overclockt hier? Sind wohl die meisten, oder?
Wer von denen hat noch eine Stromspar-Funktion an? (Alle E6300 schließe ich an dieser Stelle mal aus - den Multi von 7 auf 6 "runterzuschalten" zählt eindeutig nicht!)

Ich persönlich glaube der R600 samt Karte kommt auf 210-230W unter Volllast, was zuviel ist, aber vertretbar für dessen Leistung, die er definitiv bringen wird.
 
@schoolisoutfan
das ist der stromverbrauch vom ganzen system
edit: verdammt hab zwei seiten übersehn
 
Das ist doch ein Missverständniss, und das ganze wurde an einem System mit der graka gemessen. Wie zum Teufel will man 270W über eine so kleine Luftkühlung abführen? Wenn dann gibts einen unzumutbaren Lärm vom Lüfter.
 
Wer mal genauer darüber nachdenkt, wird merken, das 240-270 Watt absolut utopisch sind. Alles nur miese Gerüchte, die tatsächlich auch noch von einigen Kiddies gleich als FAKT gesehen werden... Es ist eigentlich fast unmöglich, soviel Abwärme mit einer Luftkühlung wegzublasen. Auch kleinere Wasserkühlungen haben da schon Probleme.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben