Test Radeon RX 570 im Test: Partnerkarten im Benchmarkvergleich

Sehr schöner kleiner Test, besten Dank @ Wolfgang/CB :),

dass ich noch 'mal erleben darf, dass keine ASUS Karte hier für einen Testartikel gesetzt ist ;).

Die Gigabyte Aorus macht eigentlich keine schlechte Figur und ist solide - auch wegen des guten OC-Potentials (was natürlich dem Chip geschuldet sein kann) - gut, der Preis ist im Vergleich zu Nitro+ ein wenig zu hoch ausgefallen, da muss man dann die Entwicklung beobachten als Kaufinteressent, aber sowohl die Sapphire Pulse ITX und die Nitro+ Modelle und die Gigabyte/Aorus sind relativ interessante RX 570 Grafikkarten.
 
AdmiralPain schrieb:
Das wären nämlich gerade mal 40 000 000 Watt, also 0,04 GW oder 40 Megawatt . Ein durchschnittliches Kraftwerk produziert in Deutschland zwischen 20-4000+ Megawatt, also 0,02-4+ Gigawatt, die Spannweite ist sehr groß.
Deutschland hat insgesamt ~ 700 Kraftwerke, und da sind nur alle aufgezählt welche mindestens 20 Megawatt Leistung erbringen, also auch so etwas wie Biomasse Kraftwerke usw.

Das passt leider hinten und vorne nicht...
Verbrauchte Energie wird üblicherweise in kWh angegeben. Das sind Kilo Watt pro Stunde.
Zwischen 50 und 500W Verbrauch hat es einen Mehrverbrauch von 450W. Bei angenommen 24/7 Betrieb sind das 450/1000*24*365=3942kWh im Jahr pro Nase. Mal 80.000.000 Personen sind das 315.360GWh (Giga Watt Stunden)

Nimmt man mal an, im Schnitt liefern deine Kraftwerke 500MW, dann sind das mal 700 Stück gleich 3.066.000GWh pro Jahr gesamt Erzeugung. Es wären also mal schlappe 10% vom Gesamten!
Selbst bei 4GW mal 700 Kraftwerke wären das noch ~1,29%


Nur um dir mal zu verdeutlichen, dass es so wenig definitiv nicht ist... Warum das in der Praxis aber nicht so extrem ist, liegt eher darin, dass allein der Mehrverbrauch von 450W im 24/7 Betrieb dem durchschnittlichen Jahresverbrauch eines 2-3 Personenhaushalts entspricht... Die Kosten würden sich also verdoppeln, wenn man da 450W mehr drauf hätte...
 
fdsonne schrieb:
Verbrauchte Energie wird üblicherweise in kWh angegeben. Das sind Kilo Watt pro Stunde.
Ich finde es ja gut, wenn sich Personen für die Umwelt einsetzen, aber dann bitte wenigstens gucken, was man schreibt.

AP schrieb:
300 Watt gelten heute für viele User als viel Energie ja fast schon als Starkstrom, doch ist es das wirklich? Nun, beim normalen Fahrradfahren, nicht richtig anstrengendes fahren, da erzeugt der Mensch schon mindestens 100 Watt pro Stunde. Damit will ich sagen, 300 Watt bei einer Grafikkarte sind schon sehr kleine Energie Mengen.
Super, du radelst dich also im Zweifelsfall 3h ab, um 1h Strom für deine Grafikkarte zu bekommen. Ich weiss ja nicht, wie man da denken kann 300 Watt wären wenig.
 
CyberdyneSystem schrieb:
Wäre da nicht die schlechte Verfügbarkeit. Ich möchte für mein Zweit-PC eine RX 580 kaufen aber ich bekomme seit Wochen einfach keine. Möchte am liebsten die Sapphire Nitro+ haben aber momentan sind alle Lager leer Oo

Entweder die werden Verkauft wie Verrückt oder es wurden im Vorfeld zu wenig auf Halde gelegt

jop, nicht so einfach - meine nitro ist vorgestern gekommen, habe aber auch seit fast 3Wochen drum "gekämpft" :evillol:
Hatte ich so auch noch nie - zum Glück war es kein dringender Ersatz....
 
Nur mal so am Rande ja 300 Watt sind wenig, denn ein Staubsauger hat gerne mal 2600 Watt. Des weiteren ist der Verbrauche von Gaming PCs wirklich zu vernachlässigen im vergleich zu alltäglichen Verbrauchern oder was die Industrie verbraucht.
 
gibts einen bestimmten grund wieso man keine nvidia karten mit in die vergleichswerte genommen hat. so hätte man doch wenigstens einen anhaltspunkt.
 
Na toll...
Habe vorgestern meine Asus Strix 4GB Gaming 470 von einem Händler vor Ort bekommen....
Wenn ich das jetzt so lese hier im Vergleich, gerade zur Pulse ITX habe ich echt das Gefühl hier nicht so das wahre gekauft zu haben :(
Bin echt am Überlegen sie zurück zu geben, da ich sie bisher nicht mal ausgepackt habe...
 
dermatu schrieb:
gibts einen bestimmten grund wieso man keine nvidia karten mit in die vergleichswerte genommen hat. so hätte man doch wenigstens einen anhaltspunkt.

Du kannst die Tabelle aufklappen, dann siehst du Nvidia- und andere AMD-Chips!
 
470-Besitzer hier. Mich wundert, dass Sapphire nicht mehr den guten 2000er RAM verbaut. Zumindest in der Hinsicht ist meine 470 Nitro der 570er überlegen.
(Ich bin hingegangen und habe die Taktrate vom BoostBios mit den Umdrehungen vom SilentBios kombiniert (1260/2000@1900rpm) dazu ein dezentes Undervolting auf 1080mV.
 
fdsonne schrieb:
Das passt leider hinten und vorne nicht...
Verbrauchte Energie wird üblicherweise in kWh angegeben. Das sind Kilo Watt pro Stunde.
Zwischen 50 und 500W Verbrauch hat es einen Mehrverbrauch von 450W. Bei angenommen 24/7 Betrieb sind das 450/1000*24*365=3942kWh im Jahr pro Nase. Mal 80.000.000 Personen sind das 315.360GWh (Giga Watt Stunden)

Nimmt man mal an, im Schnitt liefern deine Kraftwerke 500MW, dann sind das mal 700 Stück gleich 3.066.000GWh pro Jahr gesamt Erzeugung. Es wären also mal schlappe 10% vom Gesamten!
Selbst bei 4GW mal 700 Kraftwerke wären das noch ~1,29%


Nur um dir mal zu verdeutlichen, dass es so wenig definitiv nicht ist... Warum das in der Praxis aber nicht so extrem ist, liegt eher darin, dass allein der Mehrverbrauch von 450W im 24/7 Betrieb dem durchschnittlichen Jahresverbrauch eines 2-3 Personenhaushalts entspricht... Die Kosten würden sich also verdoppeln, wenn man da 450W mehr drauf hätte...

Kleiner Hinweis am Rande. Energieangaben in Watt, Kilowatt, Megawatt, sind immer angaben in Leistung per H (Stunde) . Das ist quasi eine Bandbreite. Wie ne Flatrate, oder besser, die Geschwindigkeit des HDMI Kabels, welches die Grafik überträgt..
Das sollte deinen Text für dich in eine objektive Korrelation setzen.
Darum misst man Spannungen auch nicht in Watt, sondern in Volt. Watt ist quasi die Autobahn, die Konstante wenn man so will, Volt ist die Geschwindigkeit, der Druck , der Durchfluss auf dieser Ebene, Ohm der Widerstand usw.
Worauf ich hinaus will, Watt Angaben sind immer Pro Stunde Einheiten, auch Gigawat im Kraftwerk. Das ist eine Norm.
Es gibt da nicht, 3 Watt pro Jahr im Kraftwerk und 5 Watt pro 10 Sekunden in der Birne einer Lampe.
Kilowattstunde ist dann einfach nur die Hochrechnung, eben die Watt Stunde wenn sie die 1000 Watt erstrebt, auch eine Norm. Genau wie eine Gigawattstunde, oder eine Megawattstunde. ;)

Deine Rechnung ist also zwar logisch nachvollziehbar, aber fußt auf einem Missverständnis, denn die Einheiten sind im Energiewesen genormt per *h.
Darum haben Grafikkarten Watt angaben per Stunde, ebenso wie Kraftwerke, hier sind es zwar Mega und Gigawatt , aber dennoch auch per Stunde. Beispiel das Kraftwerk Niederaußem in Bergheim-Niederaußem. Dies erzeugt 3864 Megawatt durch Braunkohle.
Natürlich pro Stunde, es gibt ja keinen Akku der die Energie speichern könnte, eine andere Rechnungsart von Energie als pro Stunde würde allein darum auch gar keinen Sinn machen. ;)

Du musst also deine 24/7 Rechnung in Relation mit der 24/7 Stromerzeugung betrachten, wie ich es tat, dann stimmt meine Rechnung durchaus.
Meine Zahlen der Kraftwerke in GW, sind Angaben per Stunde, nicht per Jahr oder Tag oder Monat. Das ist die Stundenproduktion, um jedem Missverständnis vorzubeugen. ;)
Gaugaumera schrieb:
@AdmiralPain
Für eine Einzelperson stimmt deine Betrachtung sogar. Da machen 100W mehr oder weniger bei der GPU nichts aus. Aber es läppert sich wenn man viele Geräte hat mit denen man "spart" und wenn gleichzeitig viele Leute sparen.
100W an der GPU gespart, 60W an der CPU, 50W durch ein besseres Netzteil. Dann hat man noch einen neuen A+++++ Kühlschrank und holt sich keine Tiefkühltruhe, beleuchtet mit LED und nicht mit Halogen. Schon kann jede person bis zu 50% weniger Verbrauchen.

Machen das alle Privatpersonen schon kannste 100 Kraftwerke schließen. Und schon gehts der Umwelt besser.

Die Kühlung der Grafikkarte ist ein gutes Argument. Quasi eine natürliche Grenze. Die hatte ich gar nicht auf dem Schirm. Ist ja fast so als wenn die Natur von sich aus schon diverse Spielräume zulässt, aber auch ebenso wohldefinierte Grenzen setzt.
Den Gedanken mag ich. ;)
 
Zuletzt bearbeitet:
Dachte ich auch gerade.
Hat da ein paar Kommentare weiter oben jemand ernsthaft behauptet, dass es eine Kilowattstunde das Selbe ist wie 1W pro Stunde??? :freak:
Bitte zurück in die Baumschule!!
Energie ist das was verbraucht, genauer gesagt, in eine oder mehrere andere Arten von Energie umgewandelt wird.
Hier: elektrische Energie wird in Wärmeenergie umgewandelt.
Energie hat die Einheit Joule [J]. Ein Watt [W] = 1 Joule pro Sekunde.
Daher: eine 75W Glühbirne "verbraucht" 75W. Immer wenn sie eingeschaltet ist. Kein Zeitangabe, pro oder mal Stunde oder irgendetwas.
Wenn [W] = [J] / ist, dann ist [J] = [W] *
Sprich: je länger die 75W Glühbirne brennt, umso mehr elektrische Energie wird verbaucht. Logisch, oder?
Wenn also ein Gerät 1K Watt Leistung saugt, und man dieses eine Stunde lang betreibt, hat man eine Kilowattstunde.
1.000 Watt * 3.600 sec = 3.600.000 J = 3.600 KJ = 3,6 MegaJoule!
Man hat also 3,6 MegaJoule an Energie "verbraucht" bzw in Wärme umgewandelt.
1 Joule ist die Energie die man braucht, um 1g Wasser um 1°C zu erhöhen.
1KJ um 1kg(=1Liter) Wasser um 1°C zu erhöhen.
Gerundet kann man also sagen, dass man mit 80KJ einen Liter Wasser von 20°C auf 100°C erhitzen kann (verdampfen braucht dann aber nochmal einiges an Energie, da Übergang von einem (flüssig) in einen anderen (gasförmig) Aggregatzustand.
Mit den 3,6 MJ kann man also 45 Liter Wasser von 20°C auf 100°C erhitzen.
Oder 3.600 Liter Wasser von zB 20°C auf 21°C.

Ein 500W Gerät (hypotetischer, fetter Gaming PC auf Volllast beim Zocken~~) kommt dann in 2 Stunden auf diese eine KiloWattStunde (kWh).

Natürlich könnte man anstatt kWh auf der Stromrechnung auch einfach angeben, wie viel Energie man verbraucht hat, in Joule, also zB in GigaJoule.
Keine Ahnung eigentlich, warum da Watt genommen wird. Vermutlich weils auf den Geräte in Watt angegeben wird. Mal die Zeit gerechnet, kommt dann halt Watt*Sekunde raus. Oder damit die Zahlen bzw die Einheiten schöner sind, Kilowatt*Stunde.


Klar soweit? ;)


MfG
Ergänzung ()

@Topic:
Erkenntnis: Der NEUE Kühler der Nitro+ ist also gut, die Karte schön leise - wie es sich gehört.
Das ITX Modell ist eine Überraschung.
Und sonst? Alle anderen Modell sind lauter, also vollig unnötig. Höchstens interessant wenn man taub ist und sie deutlich günstiger sind.
220€ für die 4GB Version? Für die 8GB Variante würde ich diese 220€ bezahlen, HÖCHSTENS! Und da ist der Versand schon inkludiert. Aber da dann der Abstand zur 580er klein ist, dürfte diese nur 250€ kosten.
Da ist dann ein ok-Preis für die schnellste Mittelklasse Graka, samt der 1060 6GB.
Gut, soll die nVidia dann halt 260€ kosten, nur um ein paar Posern höhere Wertigkeit vorzugaukeln.

MfG
 
Zuletzt bearbeitet:
AdmiralPain schrieb:
Das bedeutet im Umkehrschluss, mit einer 50 Watt Grafikkarte, gegenüber einer 500 Watt Grafikkarte, hochgerechnet auf 80 Millionen Haushalte (Extrembeispiel), erzeugst du gerade mal eine Differenz in der deutschen Stromerzeugung von unter 0,00000* % und dann fangen mit viel Glück irgendwann die Zahlen an.
Das ist der Einfluss an der Gesamten deutschen Stromversorgung, wenn jeder Haushalt plötzlich eine 500 Watt Grafikkarte hätte.
Aber es ist ja gut wenn man wenigstens denkt, man würde etwas für die Umwelt tun :D

Meinst du das ernst? Deine gesamte Sichtweise beruht anscheinend auf diese eine völlig falsche Berechnung. 80.000.000 x 450 W ergibt 36.000.000.000 W, also 36 GW.
 
Beide habt ihr Rechnerisch Recht. Die Leistung hat Jambana korrekt berechnet. Die Elektrische Energie ist aber was anderes. Leistung=!Energie. Leistung wird in Watt [W] angegeben und und Elektrische Energie [kWh]. Elektische Energie hat also immer eine Zeitkomponente die die Leistung nicht hat.

Mal ein halbwegs realistisches (wenn auch hoch gegriffenes) Beispiel: Ne R9 FuryX [330W] gegen ne GTX1060 [130W] rein von der Energiebilanz von Privatpersonen.

-Ein PC läuft im Bundesweiten schnitt Pro Tag bestimmt nicht länger als 3h in Vollast
-Nicht jeder hat einen PC/Notebook. Gehen wir also von 40 Mio Geräten aus, auch wenns hoch gegriffen

FuryX: 365Tage * 3h *0,33kW = 361 kWh *40.000.000 = 14.454 GWh
1060: 365 Tage * 3h * 0,13kW= 142 kWh *40.000.000 = 5694 GWh


Der Durchschnittliche Pro Kopf Verbrauch einer Privatperson (keine Industrie mit eingerechnet) in Deutschland sind 7000kWh *80.000.000 = 560.000 GWh Gesamtverbrauch

560.000 GWh Geamtverbrauch

14.454 GWh Fury Verbrauch
FuryX =2,58% des Gesamtverbrauchs.

5694 GWh = GTX %
1060 =1,01% des Gesamtverbrauchs.


Das heißt, wenn jeder anstatt einer Stromschleuder eine sparsame Grafikkarte haben würde, wird ~1,5% Energie weniger von Privatpersonen Verbraucht. In wie weit das Relevant ist kann jeder für sich selbst entscheiden
 
Toller Test - Danke.

Aber 4GB Karten für den Preis - da würde ich persönlich was drauflegen wollen und gleich zu 8GB greifen.
 
Gaugaumera schrieb:
Beide habt ihr Rechnerisch Recht. Die Leistung hat Jambana korrekt berechnet. Die Elektrische Energie ist aber was anderes. Leistung=!Energie. Leistung wird in Watt [W] angegeben und und Elektrische Energie [kWh]. Elektische Energie hat also immer eine Zeitkomponente die die Leistung nicht hat.

Mal ein halbwegs realistisches (wenn auch hoch gegriffenes) Beispiel: Ne R9 FuryX [330W] gegen ne GTX1060 [130W] rein von der Energiebilanz von Privatpersonen.

-Ein PC läuft im Bundesweiten schnitt Pro Tag bestimmt nicht länger als 3h in Vollast
-Nicht jeder hat einen PC/Notebook. Gehen wir also von 40 Mio Geräten aus, auch wenns hoch gegriffen

FuryX: 365Tage * 3h *0,33kW = 361 kWh *40.000.000 = 14.454 GWh
1060: 365 Tage * 3h * 0,13kW= 142 kWh *40.000.000 = 5694 GWh


Der Durchschnittliche Pro Kopf Verbrauch einer Privatperson (keine Industrie mit eingerechnet) in Deutschland sind 7000kWh *80.000.000 = 560.000 GWh Gesamtverbrauch

560.000 GWh Geamtverbrauch

14.454 GWh Fury Verbrauch
FuryX =2,58% des Gesamtverbrauchs.

5694 GWh = GTX %
1060 =1,01% des Gesamtverbrauchs.


Das heißt, wenn jeder anstatt einer Stromschleuder eine sparsame Grafikkarte haben würde, wird ~1,5% Energie weniger von Privatpersonen Verbraucht. In wie weit das Relevant ist kann jeder für sich selbst entscheiden
Das ist soweit korrekt, dennoch wird das Missverständnis welches ich versucht habe aufzuklären auch hier übersehen.

Meine Angaben der GW der Kraftwerke, und des Schnittes sind natürlich auch pro Stunde Angaben.
Das bedeutet, wenn ein Kraftwerk 4000 MW produziert, dann muss man dieses natürlich ebenso mal 365* 3h usw berechnen, und dann daraus die Differenz ziehen.
;)

Meine Rechnung ist schon korrekt, sie geht aber wie gesagt immer jeweils vom Stunden Verbrauch, als auch vom Stunden Erzeugnis aus. ;)
Also wie in deinem Beispiel korrekt beschreiben muss man dann aber beide Faktoren so hoch rechnen, sowohl Grafikkarte, als auch Energieerzeuger pro Stunde, und dann kommt ein Einflussfaktor von 0,00001 irgendwas bei heraus. ;)


Jambana
Meinst du das ernst? Deine gesamte Sichtweise beruht anscheinend auf diese eine völlig falsche Berechnung. 80.000.000 x 450 W ergibt 36.000.000.000 W, also 36 GW.
Damit ist natürlich gemeint, eine 500 Watt Karte anstatt einer 50 Watt Karte, darum die 80 000 000 x 500 W. Aber ich denke das weißt du selbst. ;)
 
Zuletzt bearbeitet:
Polaris ist architektonisch echt am Ende. Wahnsinn, was bei OC an Strom reingepumpt werden muss, um 5% schneller zu sein. Das konnte schon Maxwell wesentlich besser.
Ich will gar nix drüber schreiben, sonst gehts hier wieder los, aber in Sachen Effizienz ist der Polaris Refesh für mich ein waschechter Thermi. Absolut lächerlich und peinlich.

Vor allem die gute 470 und 480 gleichzeitig nicht mehr zu verkaufen. Übelst...

Vega muss da ordentlich was reißen, so gehts nicht weiter...

Bin echt am Überlegen sie zurück zu geben, da ich sie bisher nicht mal ausgepackt habe...
Auf jeden Fall zurück schicken, hol dir eine 8GB Karte in dem Preisbereich.
 
Zuletzt bearbeitet:
Du willst dazu nichts schreiben. Machst es aber doch. Ja das ist sehr konsequent. ;)

Was sich im CB Forum immer über den Verbrauch aufgeregt wird. Als wenn es Hunderte, nein Tausende von Euros wären, die man im Jahr deswegen zusätzlich an Strom bezahlen müsste. Und dabei übersieht man so viele Dinge. Aber hey, warum auch einmal wirklich alle Informationen warum AMD Karten "so viel" verbrauchen und warum nVidia Karten "nicht so viel" verbrauchen. Und warum sämtliche Verbrauchsrechnungen fern der Realität sind usw.
Am Ende bleibt im Grunde nur eines: Es werden Mittelklasse Grafikkarten getestet die man entweder kauft oder halt auch nicht. Das immer wieder daraus Religionskriege gemacht werden in jedem Thread, zeigt halt wie wenig manche mit sich an zu fangen wissen.
 
Es ging ja nicht um den Vergleich zwischen Nvidia und AMD, sondern um die teils massiv höhere Leistungsaufnahme der RX 580/70 im Vergleich zur RX 480/70, und das bei minimal höherer Performance.
 
Was eben daran liegt, das der Sweetspot niedriger liegt. Aber wo ist das Problem? Wir wissen es und AMD hat daraus kein Geheimnis gemacht. Ändert aber nichts an der Tatsache, das keine der Karten jetzt so viel mehr Strom zieht, das es einen Arm macht. Außer man würde die Karte 24/7 unter Volllast laufen lassen und das solange bis die Karte ihren Geist aufgibt. Dann, ja dann wäre die Stromrechnung (sofern nicht vorher der PC stirbt) sehr sehr hoch.
Aber Hauptsache es wird sich erst einmal über etwas aufgeregt was 99,99% der User nie betreffen wird. Genausowenig wie über 90% der User nie die Karten vernünftig ausreizen werden.
 
Zurück
Oben