Test Radeon RX 570 im Test: Partnerkarten im Benchmarkvergleich

Das Problem wenn ne Karte 300W statt 200W verbraucht ist nicht der Stromverbrauch, sondern die höhere Wärmeentwicklung und damit einhergehende höhere Lautstärke. Je geringer der Stromverbrauch desto kühler und leiser wirds.
 
AdmiralPain schrieb:
Also wie in deinem Beispiel korrekt beschreiben muss man dann aber beide Faktoren so hoch rechnen, sowohl Grafikkarte, als auch Energieerzeuger pro Stunde, und dann kommt ein Einflussfaktor von 0,00001 irgendwas bei heraus. ;)

So ganz scheinst du in der Materie noch nicht durchzublicken, sonst würdest du nicht so einen Schwachsinn verzapfen.
Deine Rechnung stimmt zwar, aber sie berücksichtigt nicht, dass die Grafikkarten nicht nur eine Stunde laufen. Wenn wir davon ausgehen, dass sie 3Std. Am Tag laufen, was für manche Zocker ein viel zu kleiner Wert ist. Sind wir bei 36GW * 3h * 365Tage, sind wir bei bei einem Jahres verbrauch von 39,420 TWh was 6,1% des Jahresverbrauchs der Privaten haushalte (636TWh), 2015 ausmachen würde. Private Haushalte sind mit einem Viertel am gesamten Endenergieverbrauch verantwortlich. (Quelle: http://www.umweltbundesamt.de/daten/private-haushalte-konsum/energieverbrauch-privater-haushalte), also sind wir bei fast 2% vom gesamten Endenergieverbrauch und nicht bei 0,0000… %. Wie du schreibst das ist eine unterschied von einigen 10erpotenzen.
Zu behaupten das es nichts ausmacht, ist einfach nur krass.
Um den jüngeren zu zeigen das es sehr wohl was ausmacht (finanziell). Rechnen wir mal aus wie hoch die Stromkosten sind, wenn eine Spiele PC 500W verbraucht und sagen wir 5 Std. am Tag lauft. Berechnet sich der Verbrauch pro Jahr, wie folgt 365Tage*5h*500W = 912,5 KWh. Bei 0,26€ pro KWh ergeben sich dann Kosten von 237,25 €.

Die Umwelt profitiert davon, wenn man weniger Energie Verbraucht!!

Mann muss nur berücksichtigen dass Siliziumchips in der Herstellung richtig viel Strom verbrauchen (deswegen auch der hohe Preis). Diese zur Herstellung verwendete Energie wirkt sich nicht auf dem Stromverbrauch in Deutschland aus, weil in der Regel nicht hier produziert. China und andere Produzierende Länder verbrauchen in erster Linie deswegen so viel Energie, weil sie für die Welt Silizium Chips herstellen (und andere Produkte). Dies sollte man eigentlich in die Energie Bilanz der jeweiligen konsumierenden Länder mit einbeziehen.

Die Ständige Neuanschaffung von Prozessoren und Grafikkarten lohnt aus energetischer Sicht nicht, da diese eine Zeitlang laufen müssen um den Energie verbrauch aus der Herstellung zu amortisieren.
 
AdmiralPain schrieb:
Damit ist natürlich gemeint, eine 500 Watt Karte anstatt einer 50 Watt Karte, darum die 80 000 000 x 500 W. Aber ich denke das weißt du selbst. ;)

Ja, das ändert aber nichts daran dass 80.000.000*500W = 40.000.000.000W, also 40 MILLIARDEN Watt = 40 GW sind.
Du hast geschrieben das seien 40 MW, was nunmal eine falsche Berechnung ist.

Rechne also Mal auf diesen "nicht relevanten" Verbrauch den du ausgerechnet hast einmal *1000, und auf einmal ist es nicht mehr so wenig.
Ergänzung ()

Gaugaumera schrieb:
Beide habt ihr Rechnerisch Recht. Die Leistung hat Jambana korrekt berechnet. Die Elektrische Energie ist aber was anderes. Leistung=!Energie. Leistung wird in Watt [W] angegeben und und Elektrische Energie [kWh]. Elektische Energie hat also immer eine Zeitkomponente die die Leistung nicht hat.

Nope.
Die Energie hat keine Zeitkomponente, das ist nämlich einfach Joule.
Wenn 1 Joule verbraucht wurde wurde 1 Joule verbraucht. Die Zeit dabei ist der Physik egal.

Watt = Joule / Sekunde.
Watt KANN also ohne Zeit gar nicht gemessen werden, Joule (= Wattsekunden) aber schon.
Verwirrend durch den Namen, ist aber so ;)


Smartbomb schrieb:
1 Joule ist die Energie die man braucht, um 1g Wasser um 1°C zu erhöhen.
1KJ um 1kg(=1Liter) Wasser um 1°C zu erhöhen.

Wikipedia: 1 Joule =
"ein Gramm Wasser um ca. 0,239 Kelvin zu erwärmen"

Also leider nix mit 1°C, auch wenns ne coole Idee ist ;)
 
Zuletzt bearbeitet:
EchoeZ schrieb:
Die brisanteste Meldung der nächsten Woche:
Forscher eines Expertenforums haben herausgefunden, das AMD Grafikkarten >1% der deutschen Jahresproduktion elektrischer Energie verbrauchen :rolleyes:

Hehe, na ganz so dolle ist es nicht. Aber mir gefällt dein Humor. ^^

Bonanca schrieb:
Ja, das ändert aber nichts daran dass 80.000.000*500W = 40.000.000.000W, also 40 MILLIARDEN Watt = 40 GW sind.
Du hast geschrieben das seien 40 MW, was nunmal eine falsche Berechnung ist.

Rechne also Mal auf diesen "nicht relevanten" Verbrauch den du ausgerechnet hast einmal *1000, und auf einmal ist es nicht mehr so wenig.
Er hat schon Richtig gerechnet, da er nicht von 500W ausgeht, sondern von 500W-50W=450W.

Bonanca schrieb:
Wikipedia: 1 Joule =
"ein Gramm Wasser um ca. 0,239 Kelvin zu erwärmen"

Also leider nix mit 1°C, auch wenns ne coole Idee ist ;)

Da hat er Joule mit Kalorie verwechselt, soll vorkommen.
 
Shiiiiit, wirklich mit Kalorie verwechselt!!
Also 1Kal um Wasser (1g) um 1°C zu werwärmen.
1kCal um 1kg(=1 Liter) Wasser um 1°C zu erhöhen.
Umrechenung kal --> J = *~4,18. Daher der Umrechnungsfaktor der beiden Zahlen, die an den Lebensmitteln angegeben werden.

Warum? Spezifische Wärmekapazität von Wasser (in flüssiger Phase) ist gute 4,18 Joule pro Kilogramm*Kelvin. (google yourself).

Egal wo und wie und wann: bitte nicht Energie mit Watt (=Leistung) bezeichnen, oder Watt und Zeit in Zusammenhang anders als in kWh bringen :)


Gn8
 
Recht interessante Diskussion um den Energieverbrauch. Ich werde immer ignoriert, wenn ich die Kollegen auf sowas aufmerksam mache.
Beim lesen der Kommentare habe ich einiges dazu gelernt, wollte ich einfach mal sagen. :daumen:
 
Die Rechnung geht schon auf ...

Nur was immer wieder vergessen wird ..

nVidia gibt die TDP für den Chip an, AMD für die ganze Karte.

Zusätzlich schaltet AMD mit ZeroCorePower die Karte im Idle ab (3W bleiben übrig) ..

Ein Langzeittest würde zeigen, das es sich höchstwahrscheinlich um weniger Abstand handelt als allgemein angenommen.
 
Kasmopaya schrieb:
Auf jeden Fall zurück schicken, hol dir eine 8GB Karte in dem Preisbereich.

Naja, in dem Preisbereich ist gut...;)

Habe vor Ort 185 € bezahlt für die RX 470 4 GB.
Die 8 GB Karten, egal ob 400 oder 500 Serie fangen aktuell bei 230-235 überhaupt erst an, exkl. Versand.

Also Minimum 50-60 € mehr für mich der a.) nur Gelegenheit-Gamer ist und dann b.) eher Richtung Wirtschafts-Sims + Strategie spielt und c.) nicht mehr wie 200 € für das Upgrade ausgeben wollte.

Die RX 570 4 GB hat ja schon ca. 120 - 130 % mehr Leistung als meine aktuelle R7 260x :cool_alt:
 
Zuletzt bearbeitet von einem Moderator:
schick, danke für den test! ich hatte die pulse itx schon länger im auge da sie von den daten sehr interessant klang - leider gab es bisher kaum berichte zu der karte. wirklich schönes teil und preislich imo fair positioniert. es geht also anscheinend doch...
 
Inxession schrieb:
Die Rechnung geht schon auf ...

Nur was immer wieder vergessen wird ..

nVidia gibt die TDP für den Chip an, AMD für die ganze Karte.

Zusätzlich schaltet AMD mit ZeroCorePower die Karte im Idle ab (3W bleiben übrig) ..

Ein Langzeittest würde zeigen, das es sich höchstwahrscheinlich um weniger Abstand handelt als allgemein angenommen.

Also was ZeroCore anbelangt, habe ich das Gefühl, dass dies bei mir nicht richtig Funktioniert. Mit alter HD7770, messe ich keinen unterschied des Stromverbrauchs, ob mit eingeschaltetem oder ausgeschaltetem Monitor. Auch wenn Windows den Monitor abschaltet bleibt der Stromverbrauch unverändert im Idyll. Vielleicht liegt das an meiner Grafikkarte, aber messen tue ich keinen Unterschied. Angeschlossen mit DVI-Kabel, falls es daran liegt. Wie schaut das bei anderen aus?
 
Amd bzw. dessen Partner schaden sich nur selbst,
die 470/80 hatte in der kleinen Ausführung noch 1x 6 Pin, ist es jetzt mit dem 570/80 Relabel 1x 8 Pin.

Heißt für den einen und/oder anderen Nutzer Adapter (wollen viele nicht), dann neues NT, dann kann man leich eine schnellere und sparsamere GTX 1060 kaufen.


Viele OEM User tauschen durchaus die GK aus, aber ein NT wird ihnen doch zu viel, somit fallen auch diese Kunden weg.
(z.B. Medion verbaut häufig NT von FSP)
 
Falsch, aber egal.

Eine einzige mit 6 Pin das nenne ich mal Auswahl.:lol:
Derzeit lieferbar erst ab 206 Euro.
 
Sparsam ist immer relativ es gibt genügend Modelle der GTX die nicht so sparsam sind. ;-)
Bei der RX570 ITX sieht man gut wie sparsam auch eine RX570 sein kann.

Des weiteren heißt ein 6 PIN am NT nicht unbedingt dass damit auch eine Leistungs GPU betrieben werden kann. ;-)
 
Oder so wie im Einstiegssegment;
GT 1030 Passiv, Lowprofile: ab 73 Euro
RX 550 Aktiv, Fullsize: ab 87 Euro

In DX 12 geben sich beide nichts
In DX 11 und GL ist die GT durchweg 20% schneller

+ Weniger Leistungsaufnahme für die GT


Ja, die OEM und deren Kunden sind durchweg Idioten usw. ist klar, versucht doch nicht immer andere Firmen als diese darzustellen.

Mcr-King schrieb:
Des weiteren heißt ein 6 PIN am NT nicht unbedingt dass damit auch eine Leistungs GPU betrieben werden kann. ;-)

Natürlich nicht bei einem Marken NT, wo kommen wir da hin das die Spezifikation des 6 Pin eingehalten werden würde.
 
Zuletzt bearbeitet:
Trotzdem bitter das die GT keine 4K netflix kann.
 
Was ist Netflix?= eine Streaming Plattform also sind die dafür verantwortlich.


Mich interessieren Dummserien recht wenig, ansonsten könnte ich gleich Hartz 4 TV auch RTL genannt ansehen.
 
Zuletzt bearbeitet:
Zurück
Oben