Test Radeon RX 570 im Test: Partnerkarten im Benchmarkvergleich

Manche suchen aber auch echt das Haar in der Suppe. :freak:
 
Nee die sind nicht verantwortlich wenn NV HDCP 2.2 und die Video Codecs nicht in die Karte richtig einbauen.
Ergänzung ()

Ja stimmt schon aber wenn ich sie für sowas kaufe und es geht nicht dann ist es doof.
 
cheff-rocker schrieb:
Er hat schon Richtig gerechnet, da er nicht von 500W ausgeht, sondern von 500W-50W=450W.

Hast du dir überhaupt Mal die Rechnung angeschaut um die es geht bevor du kommentiert hast?

Es geht um die Rechnung von Admiral Pain, der behauptet hat dass (guck Mal, ich habs dir sogar rausgesucht:)
"selbst wenn jetzt 80 Millionen Nutzer plötzlich eine 500 Watt Grafikkarte in Deutschland hätten, bemerkt man den Unterschied, dank Umweltsuggestion zwar höchstens in der Geldbörse, die Umwelt merkt davon aber nichts.

Das wären nämlich gerade mal 40 000 000 Watt"

Willst du mir jetzt also immernoch erzählen dass er mit 450 Watt gerechnet hat?
Wie kommt er dann auf 40... Watt?
Und willst du mir jetzt ernsthaft erzählen dass 80.000.000*500 (von mir aus auch 450) =40.000.00 sind?
Ergänzung ()

Smartbomb schrieb:
oder Watt und Zeit in Zusammenhang anders als in kWh bringen :)

Und seit wann hat Joule was mit Zeit zu tun?
 
Tja dann musst du der Film-Industrie die schuld geben, aber ohne Schutz geht's halt leider nicht ist nun mal einfach so.

Aber trotzdem 4K Streaming ist zwar noch nicht so verbreitet aber selbst Kabylakes iGPU kann dass. Nur mal so am Rande erwähnt auch dass kann ein Kaufgrund sein, zumindest für mich wäre dass einer.
 
Ein wenig Lektüre zum Thema Energie
Joule [J] ist ein (SI-)Normwert für Wärme-Energie
Wattsekunde [Ws] ist ein (SI-)Normwert für elektrische Energie
Newtonmeter [Nm] ist (SI-)Normwert für mechanische Energie

Da die Einheiten genormt sind gilt
1 Joule = 1 Wattsekunde = 1 Newtonmeter

Watt alleine hat KEINEN Zeitwert, es ist eine Leistungsangabe.
Wenn ein Kraftwerk mit 500MW angegeben wird, heisst es nur, daß es maximal 500MWh pro Stunde erzeugen kann!

(erzeugen ist auch nicht der richtige Ausdruck, es wird nur von einer Energieform in die Nächste umgewandelt. elektrische Energie ist aber ein verkaufbares Produkt, also darf man hier auch von Erzeugung (eines Produktes) sprechen)
Es kann aber auch nur 200MWh erzeugen, trotz der 500MW Angabe.


Umgekehrt ist es bei Verbrauchern. Sind z.B 100W maximale Leistungsaufnahme angegeben (NICHT TDP) KANN das Gerät in einer Stunde 100Wh verbrauchen, speziell so dynamische Verbraucher wie PC Hardware MUSS es aber nicht sein.
Bei Benchmarks von Grafikkarten z.B. wird das Gerät unter extremen Bedingungen (besonders aufwändige, belastende Spielszenen, 3DMark&Co) betrieben, bis hin zum Furmark getestet.
Wenn eine Graka mit maximalem Boosttakt und 100% Auslastung bei 2 verschiedenen Spielen läuft, heisst es nicht automatisch, daß die Leistungsaufnahme beider Spiele identisch ist, und nur sehr selten erreicht eine Graka beim spielen die Leistungsaufnahme wie beim Furmarken
Selbst im einzelnen Spiel schwankt die Leistungsaufnahme.
Mißt man die durchschnittliche Leistungsaufnahme mit einem Oszilloskop (hohe Abtastrate, min UND max Werte der Abtastungen werden zur Berechnung des Durchschnitts herangenommen) bekommt man ein ziemlich genauen Wert, dem man mit der Laufzeit des Benchmark multipliziert zum echten Verbrauch berechnen kann.
Mißt man die durchschnittliche Leistungsaufnahme mit einem billigen Steckdosenzähler oder per Auslesen der Sensoren(Software), erhält man nur einen sehr vagen Wert, weil die Meßintervalle deutlich länger auseinander liegen und von jeweiligen Intervall der Maximalwert behalten wird (Hold-Peak)
Multipliziert mit der Zeit erhält man meist einen höheren Wert als bei der exakteren Messung mit dem Oszi


Dann kommt beim großen Herstellerkrieg noch dazu, daß AMD höhere Peaks bei der Leistungsaufnahme erlaubt, als nVidia, die ihre Grakas strikt regeln. Das führt bei den Messungen per Software oder Steckdosenmessung dazu daß die Unterschiede augenscheinlich gewaltig wirken.

------

Aber was hier so alles zusammengerechnet wird finde ich wieder mal Haarsträubend!
Die ursprüngliche Intention von AdmiralPain ist mir klar, auch wenn sein Rechenbeispiel murks ist.
Worüber hier immer disktiert wird läuft auf 2 Kernpunkte hinaus: Frisst mehr Strom(bzw. Geld), entwickelt mehr Abwärme.

Dazu sage ich nur: Wer in einem halbwegs gesunden Rahmen spielt und ein halbwegs gut beüftetes Gehäuse hat, der merkt den Unterschied von 50W-100W (unter Benchmarkbedingungen!) weder auf der Jahresabrechnung, noch an den Lüfterdrehzahlen der Gehäuselüfter.
Und da brauche ich keine Screenshots, Links oder sonstige Beweise. Das ist meine Meinung als Energielektroniker der als Frührentner in den letzten 15 Jahren unzählige PCs gebaut hat! Komplett Farbautonom ;)






 
cheff-rocker schrieb:
So ganz scheinst du in der Materie noch nicht durchzublicken, sonst würdest du nicht so einen Schwachsinn verzapfen.
Deine Rechnung stimmt zwar, aber sie berücksichtigt nicht, dass die Grafikkarten nicht nur eine Stunde laufen. Wenn wir davon ausgehen, dass sie 3Std. Am Tag laufen, was für manche Zocker ein viel zu kleiner Wert ist. Sind wir bei 36GW * 3h * 365Tage, sind wir bei bei einem Jahres verbrauch von 39,420 TWh was 6,1% des Jahresverbrauchs der Privaten haushalte (636TWh), 2015 ausmachen würde. Private Haushalte sind mit einem Viertel am gesamten Endenergieverbrauch verantwortlich. (Quelle: http://www.umweltbundesamt.de/daten/private-haushalte-konsum/energieverbrauch-privater-haushalte), also sind wir bei fast 2% vom gesamten Endenergieverbrauch und nicht bei 0,0000… %. Wie du schreibst das ist eine unterschied von einigen 10erpotenzen.
Zu behaupten das es nichts ausmacht, ist einfach nur krass.
Um den jüngeren zu zeigen das es sehr wohl was ausmacht (finanziell). Rechnen wir mal aus wie hoch die Stromkosten sind, wenn eine Spiele PC 500W verbraucht und sagen wir 5 Std. am Tag lauft. Berechnet sich der Verbrauch pro Jahr, wie folgt 365Tage*5h*500W = 912,5 KWh. Bei 0,26€ pro KWh ergeben sich dann Kosten von 237,25 €.

Die Umwelt profitiert davon, wenn man weniger Energie Verbraucht!!

Mann muss nur berücksichtigen dass Siliziumchips in der Herstellung richtig viel Strom verbrauchen (deswegen auch der hohe Preis). Diese zur Herstellung verwendete Energie wirkt sich nicht auf dem Stromverbrauch in Deutschland aus, weil in der Regel nicht hier produziert. China und andere Produzierende Länder verbrauchen in erster Linie deswegen so viel Energie, weil sie für die Welt Silizium Chips herstellen (und andere Produkte). Dies sollte man eigentlich in die Energie Bilanz der jeweiligen konsumierenden Länder mit einbeziehen.

Die Ständige Neuanschaffung von Prozessoren und Grafikkarten lohnt aus energetischer Sicht nicht, da diese eine Zeitlang laufen müssen um den Energie verbrauch aus der Herstellung zu amortisieren.

Du verwechselst Terawatt mit Gigawatt. (1 Terawatt = 1000 Gigawatt) ;)

Der Verbrauch aller Grafikkarten sind eigentlich in Gigawatt hoch gerechnet, es sind keine Terawatt, die Gesamterzeugung die du erwähnst sind aber Terawatt, somit sind deine 6% in deiner Rechnung eigentlich wie ich es geschrieben habe im Bereich von 0,0006% ... am Gesamtverbrauch anzusiedeln. Und das war meine Argumentation. ;)
Ein kleiner aber doch sehr großer Unterschied.
Ich hab schon Recht, vertrau mir doch einfach mal. :D
 
Zuletzt bearbeitet:
Hallo zusammen,

@ EchoeZ

der merkt den Unterschied von 50W-100W (unter Benchmarkbedingungen!) weder auf der Jahresabrechnung, noch an den Lüfterdrehzahlen der Gehäuselüfter.

Wenn man 2-3 Stunden am Tag spielt, merkt man sehr wohl, wenn eine Karte 100 Watt mehr zieht als z. b. das Konkurrenzprodukt bei ähnlicher Performance. Ebensolch kommt es auch auf den Versorgerpreis an, bei uns z. b. kostet die Kw/h knapp über 31 Cent und zwar Brutto, nicht Netto.

Bei mir macht meine Radeon 5850 bei 2-3 Stunden Spielens ca. 0,4 - 0,5 Kw/h aus - auch abhängig von der Belastung eines jeweiligen Spiels -. Ich habe das Spaßeshalber mal genauestens Überprüft. Bei mir ist es so, daß ich abhängig vom Spiel sogar schonmal 5 Stunden am Stück absolviere, bei Pillars of Eternity letztens z. b., was mich völlig einfing.

Und dies 7 Tage in der Woche. Wohingegen ich aber auch Zeiten habe, wo ich gar nicht Spiele. Alles in allem macht es bei mir 100 Kw/h aus, die ich Spiele im Jahr. Die RX 570 zieht viel zuviel Strom in Relation zur Performance, von der RX 580 ganz zu Schweigen. Ich werde in nächster Zeit endlich meine 5850 Ersetzen. Voraussichtlich wird es eine KFA² GTX 1060 OC oder EX. Die ca. 240 - 250 € Kosten bei mehr als deutlich geringerem Strombedarf, erst Recht in Relation zur Performance. Mir ein Rätsel, was AMD sich da gedacht hat mit der Neuauflage der RX 470 / 480 bzw. Umwandlung in RX 570 / 580.

So long....
 
Zuletzt bearbeitet:
Ja genau die RX570 ITX zeigt ja dass sie auch wenig verbrauchen können, davon abgesehen gibt's auch bei NV Board-Hersteller wo die Grafikkarten wesentlich mehr verbrauchen nur da interessiert es keinen komisch.
 
AdmiralPain schrieb:
Du verwechselst Terawatt mit Gigawatt. (1 Terawatt = 1000 Gigawatt) ;)

Der Verbrauch aller Grafikkarten sind eigentlich in Gigawatt hoch gerechnet, es sind keine Terawatt, die Gesamterzeugung die du erwähnst sind aber Terawatt, somit sind deine 6% in deiner Rechnung eigentlich wie ich es geschrieben habe im Bereich von 0,0006% ... am Gesamtverbrauch anzusiedeln. Und das war meine Argumentation. ;)
Ein kleiner aber doch sehr großer Unterschied.
Ich hab schon Recht, vertrau mir doch einfach mal. :D

Lies dir mal meine Kommentar durch, dann behaupte noch mal das ich TW mit GW verwechselt habe, muss dich da leider enttäuschen.
Und nein ich vertraue dir nicht, weil ich finde das deine Behauptung einfach nur Schwachsinn ist, entschuldige die Ausdrucksweise.
Wenn ich mich verrechnet habe, zeig mir doch bitte meinen fehler! Ansonsten hast du doch geschrieben:
AdmiralPain schrieb:
Das bedeutet im Umkehrschluss, mit einer 50 Watt Grafikkarte, gegenüber einer 500 Watt Grafikkarte, hochgerechnet auf 80 Millionen Haushalte (Extrembeispiel), erzeugst du gerade mal eine Differenz in der deutschen Stromerzeugung von unter 0,00000* %[\b] und dann fangen mit viel Glück irgendwann die Zahlen an.

Da bist du immer noch einige 10er Potenzen entfernt von 0,0006%. Und da fängt es an warum ich dir so widerspreche muss, du scheinst einfach kein Gefühl für Zahlen zu haben und wirfst dann mit solchen um dich. Es reiht sich Behauptung an Behauptung die nicht belegt sind. Leute lesen das dann hier und glauben, später noch das 500W mehr verbrauch der Umwelt nicht Schaden. Du hast natürlich Recht das die größeren Energie mengen in anderen Bereichen verbraucht werden. Aber Privathaushalte verbrauchen immer noch 25% der Endenergie in Deutschland. Das ist nicht nichts, sondern 25%! Wenn sich das reduziert, profitiert davon auch die Umwelt.


Bonanca schrieb:
Hast du dir überhaupt Mal die Rechnung angeschaut um die es geht bevor du kommentiert hast?
Es geht um die Rechnung von Admiral Pain, der behauptet hat dass (guck Mal, ich habs dir sogar rausgesucht:)
"selbst wenn jetzt 80 Millionen Nutzer plötzlich eine 500 Watt Grafikkarte in Deutschland hätten, bemerkt man den Unterschied, dank Umweltsuggestion zwar höchstens in der Geldbörse, die Umwelt merkt davon aber nichts.
Das wären nämlich gerade mal 40 000 000 Watt"
Willst du mir jetzt also immernoch erzählen dass er mit 450 Watt gerechnet hat?
Wie kommt er dann auf 40... Watt?
Und willst du mir jetzt ernsthaft erzählen dass 80.000.000*500 (von mir aus auch 450) =40.000.00 sind?
Wie ich geschrieben habe sind (8*10^7 * 450W=36GW), das war die Rechnung auf die ich mich bezogen habe und die Stimmt! Zu finden hier:
Jambana schrieb:
Meinst du das ernst? Deine gesamte Sichtweise beruht anscheinend auf diese eine völlig falsche Berechnung. 80.000.000 x 450 W ergibt 36.000.000.000 W, also 36 GW.
In dem von dir Zitierten Text von AdmiralPain.

Aber ich versteh schon Troll Alarm!!! You got me! ^^

Bin hier raus wenn mir niemand einen Fehler in meinen aussagen aufzeigen kann.
 
Hallo zusammen,

@ Mcr-King

Mcr-King schrieb:
Ja genau die RX570 ITX zeigt ja dass sie auch wenig verbrauchen können, davon abgesehen gibt's auch bei NV Board-Hersteller wo die Grafikkarten wesentlich mehr verbrauchen nur da interessiert es keinen komisch.

Quatsch. Bei praktisch allen Custom-Modellen wird mehr Strom verbraucht als bei den Normalen Versionen wie sie Präsentiert werden. Egal bei welchem Hersteller. Und wenn bei den derzeitigen Pascal Modellen von Nvidia nicht solcher Art auf den Mehrverbrauch hingewiesen wird, dann schlichtweg weil dieser immer noch deutlich geringer ist in Relation von Performance und Stromverbrauch als bei den derzeitigen AMD Modellen. Schau dir doch nur mal an, was eine RX 570 zieht und dann, was eine GTX 1060, dann schaust du mal auf die Performance in der Relation. Hier stimmt die Relation doch in keinster Weise mehr.

So long....
 
Nee wird ja manchmal es wird trotzdem ignoriert, aber es liegt ja auch daran dass NV nur TDP des Chips angibt und AMD die TDP der Karte.

Und die RX570 ITX ist eine gute Karte was Verbrauch und Kompakte Bauweise angeht. Auch dass P/L ist klasse da hat NV nix vergleichbares zu bieten.
 
cheff-rocker schrieb:
Lies dir mal meine Kommentar durch, dann behaupte noch mal das ich TW mit GW verwechselt habe, muss dich da leider enttäuschen.
Und nein ich vertraue dir nicht, weil ich finde das deine Behauptung einfach nur Schwachsinn ist, entschuldige die Ausdrucksweise.
Wenn ich mich verrechnet habe, zeig mir doch bitte meinen fehler! Ansonsten hast du doch geschrieben:
Da bist du immer noch einige 10er Potenzen entfernt von 0,0006%. Und da fängt es an warum ich dir so widerspreche muss, du scheinst einfach kein Gefühl für Zahlen zu haben und wirfst dann mit solchen um dich. Es reiht sich Behauptung an Behauptung die nicht belegt sind. Leute lesen das dann hier und glauben, später noch das 500W mehr verbrauch der Umwelt nicht Schaden. Du hast natürlich Recht das die größeren Energie mengen in anderen Bereichen verbraucht werden. Aber Privathaushalte verbrauchen immer noch 25% der Endenergie in Deutschland. Das ist nicht nichts, sondern 25%! Wenn sich das reduziert, profitiert davon auch die Umwelt.



Wie ich geschrieben habe sind (8*10^7 * 450W=36GW), das war die Rechnung auf die ich mich bezogen habe und die Stimmt! Zu finden hier: In dem von dir Zitierten Text von AdmiralPain.

Aber ich versteh schon Troll Alarm!!! You got me! ^^

Bin hier raus wenn mir niemand einen Fehler in meinen aussagen aufzeigen kann.

Kann dir da echt nur zustimmen!
0.000x% ergeben einfach keinen Sinn. :D
Im Durchschnitt verbraucht ein Haushalt 4800Wh am Tag.
Da brauchste gar nicht mit GW/MW/TW oder sonst was rechnen...

Als Beispiel: Anstatt einer 150W eine 400W Grafikkarte 3 Stunden am Tag zu betreiben ergibt 750Wh.
Grob gerechnet ergibt das, ausgehend von 4800Wh, 15% mehr Stromverbrauch!
Deutsche Haushalte verbrauchen 25% des gesamten Stroms.
Dieser Mehrverbrauch wäre im Gesamtverhältnis immer noch bei 4%.
 
Wenn ich die Watt Diskussion richtig verstehe, dann ist AMD schuld am Klimawandel :'( :'( :'(

:rolleyes:
 
Meffen schrieb:
Wenn ich die Watt Diskussion richtig verstehe, dann ist AMD schuld am Klimawandel :'( :'( :'(

:rolleyes:

So ist es. :evillol:
 
Wenn ich diesen Test lese, bin ich echt froh mir letztes Jahr die RX470 Nitro+ mit 8GB GDDR (und zwar dem guten) geholt zu haben. Damals lag die in Benchmarks fast auf dem gleichen Niveau wie eine standard RX480 mit 4GB.

RX5xx ist für mich schon etwas enttäuschend. Jeder der eine RX470/480 bereits sein eigen nennt kann RX570/580 überspringen. Ich verstehe nicht was sich AMD hierbei gedacht hat.
 
Luxmanl525 schrieb:
[...] bei uns z. b. kostet die Kw/h knapp über 31 Cent und zwar Brutto, nicht Netto. [...]
Da hat sich EchoeZ die Mühe gemacht, den Unterschied zwischen Leistung und Energie zu erklären (#86), und dann kommst du mit einer solchen Einheit daher. Das tut echt weh! :D

kW/h wäre sowas wie J/s² (Joule pro Sekunde im Quadrat), was keinen Sinn ergibt. Was du meinst, ist kWh.
 
Zuletzt bearbeitet:
DeadEternity schrieb:
...
RX5xx ist für mich schon etwas enttäuschend. Jeder der eine RX470/480 bereits sein eigen nennt kann RX570/580 überspringen. Ich verstehe nicht was sich AMD hierbei gedacht hat.

Natürlich wird kaum jemand von einer 470/480 wechseln, wer allerdings von einer älteren GPU-Generation kommt hat nun aber wieder ein "aktuelles" Modell zur Auswahl und muss nicht eine über ein Jahr alte Generation nehmen.
 
Luxmanl525 schrieb:
Hallo zusammen,

@ EchoeZ



Wenn man 2-3 Stunden am Tag spielt, merkt man sehr wohl, wenn eine Karte 100 Watt mehr zieht als z. b. das Konkurrenzprodukt bei ähnlicher Performance. Ebensolch kommt es auch auf den Versorgerpreis an, bei uns z. b. kostet die Kw/h knapp über 31 Cent und zwar Brutto, nicht Netto.

Bei mir macht meine Radeon 5850 bei 2-3 Stunden Spielens ca. 0,4 - 0,5 Kw/h aus - auch abhängig von der Belastung eines jeweiligen Spiels -. Ich habe das Spaßeshalber mal genauestens Überprüft. Bei mir ist es so, daß ich abhängig vom Spiel sogar schonmal 5 Stunden am Stück absolviere, bei Pillars of Eternity letztens z. b., was mich völlig einfing.

Und dies 7 Tage in der Woche. Wohingegen ich aber auch Zeiten habe, wo ich gar nicht Spiele. Alles in allem macht es bei mir 100 Kw/h aus, die ich Spiele im Jahr. Die RX 570 zieht viel zuviel Strom in Relation zur Performance, von der RX 580 ganz zu Schweigen. Ich werde in nächster Zeit endlich meine 5850 Ersetzen. Voraussichtlich wird es eine KFA² GTX 1060 OC oder EX. Die ca. 240 - 250 € Kosten bei mehr als deutlich geringerem Strombedarf, erst Recht in Relation zur Performance. Mir ein Rätsel, was AMD sich da gedacht hat mit der Neuauflage der RX 470 / 480 bzw. Umwandlung in RX 570 / 580.

So long....

Du sagst nun, daß deine 5850 bei etwa 3 Stunden Spielzeit bis zu 500Wh pro Tag verbraucht, und geschätzte 500 Spielstunden im Jahr zusammen kommen(?). Und die Stromsteuer beträgt immer 2,05Cent pro kWh, womit dein Strom 33 Cent pro kWh kostet.
Also 500Wh / 3 Stunden ~165Wh pro Stunde * 500 Spielstunden ~83kWh Jahresverbrauch * 33Cent ~28€ Stromkosten für deine HD5850 pro Jahr.


Meine Angabe mit 50-100W Differenz bezieht sich dazu auf die - im Benchmark - gemessenen, relitätsfernen Werte.
Das würde in deinen Fall bei 100W (mehr) * 500 Spielstunden ~50kWh mehr an Jahresverbrauch *33 Cent ~16€ höhere Kosten verursachen.

Nun willste mir erzählen daß Du den Unterschied von 28€ zu 44€ auf der Jahresabrechnung merkst?

Meine Stromkosten (2-Mann-WG, 2xPC,2xHiFi,2xTV etc) belaufen sich auf ~1000€ pro Jahr und da willste mir erzählen da fällt Dir diese Differenz auf? Ein durchschnittlicher 4 Personen Haushalt verbraucht 5000kWh pro Jahr, bei 33Cent/kWh etwa 1700€.
Die merken deine Differenz von 16€ NOCH weniger.

Wenn nun doch ein Dauerzocker mehr als 1000 Stunden pro Jahr in Computerspielen hängt, kann er gerne auf eine effizientere Nvidia-Karte zurück greifen... aber m.M.n. hat dieser Mensch größere Probleme als seine Stromrechnung.

Unterm Strich ist es ein Hobby! Da bracht man keine Erbsen zählen. Wenn ich EINEN Tag mit meiner Dicken durch die Kurven Sauerlands schaukele, verbrate ich 50€ Sprit. Trotz meiner knappen Frührente juckt mich der Verbrauch kein Stück ;) (edit: Keiner meiner Tourenkumpels hat jemals gesagt "Boah, ich hab nur 40€ an Sprit verblasen, dein Bock ist ja 'n Spritschlucker)

Daß hier immer so ein Faß aufgemacht wird, ist reines Kampfmittel in den Fanboyschlachten und hat keinen wirtschaftlichen Wert !einself!
Ergänzung ()

Jenergy schrieb:
Da hat sich EchoeZ die Mühe gemacht, den Unterschied zwischen Leistung und Energie zu erklären (#86), und dann kommst du mit einer solchen Einheit daher. Das tut echt weh! :D

kW/h wäre sowas wie J/s² (Joule pro Sekunde im Quadrat), was keinen Sinn ergibt. Was du meinst, ist kWh.

Danke, das kommt noch dazu :D
 
Zuletzt bearbeitet:
Zurück
Oben