News Radeon VII: AMD publiziert Benchmark­-Ergebnisse von 26 Spielen

@Taxxor
Es werden von der Karte offensichtlich mindestens Strom und Spannung ermittelt und beides zusammen ergibt bei Gleichspannung was?
 
Faust2011 schrieb:
Guter Hinweis von Dir mit dem Artikel von Igor. Konkret h ier zur Vega 64 und deren gescholtene schlechte Effizienz: Hast Du eine Quelle/Vergleich, die zeigt, was eine Vega 64 tatsächlich beim Gaming braucht? Und dann noch mit der Variante, dass man undervoltet?
Igor hat in dem vom mir verlinkten Test nur Witcher 4 in UHD getestet und schreibt dazu
Das Spiel mit den höchsten Lastspitzen und auch längsten Lastzuständen im Maximalbereich ist, wen wundert es, Witcher 3 in Ultra-HD. Das hat sich nach der ersten Vergleichsmessung mit 10 Spielen herauskristallisiert. Die durchschnittliche Leistungsaufnahme über einen Messraum von einer Sekunde liegt bei ca. 250 Watt, also voll in der Norm.

Und sieht graphisch so aus (wohlgemerkt nur 20ms, in 10µs Intervallen/pro Kästchen)

01a-AMD-Vega64-Gaming-Power.png


Computerbase zeigt bei deren Art der Leistungsmessung bei Witcher 3 UHD ein anderes Ergebnis

Vega 64 CB.png


Hier sind es satte 54W(!) mehr Leistungsaufnahme

Zum Vergleich die 1080Ti FE mit 'sparsamen' 215W, bei Igors exakteren Art der Messung

03a-Nvidia-GTX-1080-Ti-Gaming-Power-1.png


Beim Vergleich der Graphiken zwischen Vega64 und 1080Ti FE erkennt man, daß die Vega64 Peaks bis 450W und 1080TI bis 400W zeigt, trotzdem haben beide durchschnittlich 250W. Bei CB jedoch eine Differenz von 89W, nur wegen der Art der Messung!
Zum Undervolting hab ich auf die schnelle nichts auf THG gefunden, aber eine Einschätzung meinerseits:
Wenn hier im Forum z.B jemand schreibt, er habe mittels Undervolting die Leistungsaufnahme von 300W auf 240W gesenkt (beides Softwaremessung), bedeutet dies eine Reduktion um 20%. Man könnte dieses auf eine richtige Messung mittels Oszilloskop übertragen und von einer realen Leisungsaufnahme von ca. 200W ausgehen. Theoretisch, und nur im Falle Witcher 3 UHD ;)
Andere Spiele, die weniger 'Strom saufen' könnten noch darunter liegen...


Beim Hawaii-Chip war es damals ähnlich. Die Karten R9 290 und R9 290X wurde bei der Leserschaft geprügelt, weil sie knapp 300 Watt verbrauchen würden. Meine damals wassergekühlten Exemplare lagen bei ca. 200 Watt. Man (also die Tester) muss wirklich unterscheiden, ob man den Peak misst oder tatsächlich den Durchschnitt.
Der Witz ist ja, hier auf CB wird ja auch der Durchschnitt gemessen, aber die Intervalle einer Softwaremessung sind viel zu grob.
Wenn Igor bei normalen Tests mit Intervallen con 20ms, bzw bei dem 'Netzteil'-Test sogar 10µs misst, sind es bei einer Software (oder günstige Steckdosen-Messgeräte) deutlich längere Intervalle, welche pro Intervall nur den Peak festhalten und davon den Durchchnitt bilden.

Bei Wasserkühlung spielt noch ein anderer Faktor ein: Die Halbleiter werden deutlich Kühler betrieben, was die Leistungsaufnahme reduziert. Egsl ob MOSFET, FINFET oder billigster Transistor, bei jedem Halbleiter steigt die Leistungsaufnahme überproportional zur Temperatur.
Hätte ich die finanziellen Möglichkeiten, würde ich liebend gerne meine eigenen Messung präsentieren. Aber mir fehlt das Budget um ein Teststation - wie z.B. Igor sie betreibt - aufzubauen. Geschweige denn jedes relevante Produkt mit Overclocking und Undervolting, im Orginalzustand und Wassergekühlt testen.
Als Energieelektroniker in Frührente hätte ich genug Zeit und die Eignung, aber leider nicht.. das nötige Kleingeld...
 
  • Gefällt mir
Reaktionen: Stefan71, Matthias Berger, Iscaran und 3 andere
Hat Igor nicht die Möglichkeit mal seine Daten mit 1 oder 0.5s Intervallen "Peak" zu glätten ? Vermutlich einfach zu kurz gemessen.

EDIT: Also immer in einem Intervall von 0.5s den "Peak" zu nehmen und dann den Plot wiederholen und die Summe bilden.

Dann müsste doch eigentlich in etwa das rauskommen was bei CB gemessen wird ?
Ergänzung ()

Nachtrag:

Achso, Igor hat das ja sogar gemacht nämlich hier:
https://www.tomshw.de/wp-content/uploads/2018/12/Peak-Load.png

Bei 100ms Rasterintervallen sind die Averages der Vega64 uhnd 1080Ti beide 250W +-1W :-) Die 2080 Ti ist bei 275W.

Bei 10ms Raster sind 338W für V64 und jeweils 300W für die 1080/2080 Ti's.

Aber dann ist der Verbrauch der Karten ja eigentlich "identisch" ?!? Oder nicht ? Was für einen Auflösung hat denn der Haus+Hof Stromzähler des Stromanbieters oder wird das da anders bestimmt ?
 
Zuletzt bearbeitet: (EDIT:)
  • Gefällt mir
Reaktionen: Matthias Berger, Cpt.Willard und Faust2011
@EchoeZ und @Iscaran Danke für Eure Rückmeldungen und das "Mitdenken", um mal Licht in diese Verbrauchsmessungen zu bekommen. Wenn ich Euch richtig verstehe, dann verbrauchen die 1080Ti und V64 beide 250 Watt. Trotzdem ermitteln viele Tester bei der 1080Ti weniger als die 250 Watt und bei der V64 mehr, das ist seltsam. Wie misst denn so ein Strommessgerät? Ich habe hier auch eins an der Steckerleiste mit dran. Falls Ihr noch mehr Hintergrundinfos habt, dann immer her damit :)

Und wie passt die Anzeige in GPU-Z mit dazu? Insbesondere bei den Vega Karten zeigt GPU-Z doch nur den Verbrauch des Chips mit an. Die Verluste an den VRMs der Karte kommen da noch hinzu, die werden von GPU-Z nicht erfasst. Zählt der Verbrauch des HBM2 hier ebenfalls mit rein? Fragen über Fragen...
 
  • Gefällt mir
Reaktionen: EchoeZ
@Iscaran
Die Balkenansicht stellt vereinfacht die Messchriebe des Osszilloskops dar. Max und Normal Peak sind die heftigsten Ausreißer und die Zeit, wie lang diese dauern.
Average wiederum kumulierte max und min Werte.
Aber dann ist der Verbrauch der Karten ja eigentlich "identisch" ?!?
Genauso sieht's aus! ;)
Anhand dieser Software-Messungen (btw..egal, welches tool man benutzt), dazu noch in ausgewählten Benchmark-Situationen die graphisch und leistungsmäßig alles aus einer Karte herausholen, werden Werte gebildet, die nicht zwangsläufig einer realen Spielsituation entsprechen.
Theoretisch müsste man für eine echte Verbrauchsmessung*¹ eine Stunde lang ein Spiel laufen lassen, und nach Igors Art die durchschnittliche Leistungsaufnahme messen. Dann kann man zumindest sagen "Spiel X verbraucht auf Graphikakrte Y so und soviel elektrische Arbeit in Kilowattstunden.

Nebenbei (auch @Faust2011 ), führt eben die fehlende Differenzierung von elektrischer Leistung [P] (in Watt/W) und elektrischer Arbeit [W] (in Wattstunden(Wh)
zu den eigentlichen falschen Aussagen ala "Verbraucht ***Watt"
Bitte nicht die Formelzeichen wie W für Work (elektrische Arbeit) mit dem Einheitszeichen W für Watt verwechseln ;)
Das Formelzeichen für die Einheit W)Watt ist [P] Power

Wenn eine Hardware durchschnittlich 100W Leistung aufnimmt, verbraucht sie in einer Stunde 100 Wattstunden elektrischer Arbeit. In einer halben Stunde 50 Wattstunden, in 2 Stunden 200 Wattstunden usw


Fakt ist, daß die allgemeine Meinung über den Verbrauch nicht korrekt ist. Gerade bei AMD, die höhere, extrem kurzzeitige Peaks zulassen als nVidia, bei einer Softwaremessung höhere Durchschnittswerte abbilden als es in Wirklichkeit ist!
Dazu die Messung unter Benchmarkbedingungen (höchste Spiele-Settings, meist fordendste Szenen) und man hat... tada, eine Stromschleuder, Heizung, etc..

Achja..Thema Heizung. Das, was eine Hardware an elektrischer Arbeit verbraucht entspricht dem, was sie an Wärmemenge abgibt.
Nimmt man Igors 250W über eine Stunde Stresstest, haben Vega64 und 1080Ti 250 Wattstunden verbraucht, und 900.000 Joule Wärme abgegeben.
(1 Joule = 1 Wattsekunde, 250Wattstunden sind 900.000 Wattsekunden)

@Faust2011
Und wie passt die Anzeige in GPU-Z mit dazu? Insbesondere bei den Vega Karten zeigt GPU-Z doch nur den Verbrauch des Chips mit an. Die Verluste an den VRMs der Karte kommen da noch hinzu, die werden von GPU-Z nicht erfasst. Zählt der Verbrauch des HBM2 hier ebenfalls mit rein? Fragen über Fragen...
Das kann ich Dir leider nicht genau beantworten, nur soviel: Die internen Messungen sind nur rudimentär für die Leistungsregelung (Power Tune (AMD) und Boost (Nvidia)) und mit Sicherheit nicht dafür bestimmt, den exakten Verbrauch zu bestimmen!
 
  • Gefällt mir
Reaktionen: pupsi11, Matthias Berger, Hurricane271 und 3 andere
@EchoeZ: OK danke für die Erläuterungen. Wenn ich das also richtig verstehe würde also ein Stromzähler deines Stromversorgers also 250W bei den GPUs im "Dauerbetrieb" messen.

Oder ist genau DAS nicht der Fall weil... ?

Letztendlich ist ja für mich als Verbraucher nur relevant was nun wirklich von meinem Stromlieferer an Kosten abgebucht wird (OK nebst einigen Stabilitätssachen für die Auslegung meines Netzteils etc.).

Aber bei vielen Diskussionen ists doch so was wie: "Vega 400W => Die Abwärme muss ja erstmal weggekühlt werden...+ die zusätzlichen Stromkosten bei 24/7 *mimimi*."

Wenn nun aber die Stromkosten eigentlich mit 250W * x Stunden (h) zubuche stehen und die 250W sich dann ja eigentlich auch korrekterweise auf die Abwärme beziehen die wirklich entsteht.
Dann nehmen sich die Karten ja nix...
 
  • Gefällt mir
Reaktionen: EchoeZ und surtic
Iscaran schrieb:
@EchoeZ: OK danke für die Erläuterungen. Wenn ich das also richtig verstehe würde also ein Stromzähler deines Stromversorgers also 250W bei den GPUs im "Dauerbetrieb" messen.

Oder ist genau DAS nicht der Fall weil... ?
Wenn man eine Vega64/GTX1080Ti standalone mit einem 100% effizientem Netzteil direkt an der Steckdose betriebe, würde Dir der Stromversorger bei Vollast 250 Wattstunden die Stunde berechnen, JA ;)
Es gibt aber auch Spiele, die mit einer geringeren Leistungsaufnahme auskommen als ein Stresstest oder Witcher 3 in UHD.

Letztendlich ist ja für mich als Verbraucher nur relevant was nun wirklich von meinem Stromlieferer an Kosten abgebucht wird (OK nebst einigen Stabilitätssachen für die Auslegung meines Netzteils etc.).

Aber bei vielen Diskussionen ists doch so was wie: "Vega 400W => Die Abwärme muss ja erstmal weggekühlt werden...+ die zusätzlichen Stromkosten bei 24/7 *mimimi*."

Wenn nun aber die Stromkosten eigentlich mit 250W * x Stunden (h) zubuche stehen und die 250W sich dann ja eigentlich auch korrekterweise auf die Abwärme beziehen die wirklich entsteht.
Dann nehmen sich die Karten ja nix...
Pascal ist effizienter als GCN5 aka Vega, die 1080Ti ist ja - zumindest im (Gameworks-lastigen) Testparcour von CB- im Schnitt 30% schneller bei gleichem Verbrauch. Da gibt's sonst nicht viel zu rütteln. Nur ist die Effizienzkluft nicht so groß wie's kolportiert wird.
Die Abwärme ist logischweise auch gleich!

Ich kann mich da nur wiederholen: Aus meiner Sicht als Elektroniker ist Igors Methode, die Leistungsaufnahme einer Graphikkarte zu messen, die 'Richtigste' in gesamten Netz! Sie wäre vollkommen perfekt, wenn man mehrere aktuelle, beliebte Titel in realer Spielesituation (jedes Spiel ne Stunde daddeln) testen würde.... aber diesen Aufwand kann man niemandem zumuten, der damit sein Geld verdient.

PS: Alle meine Aussagen beziehen sich natürlich auf der Grundlage, daß Igor einen korrekten Meßaufbau hat.. und für mich sieht's ganz danach aus, ich würde genauso vorgehen!
 
EchoeZ schrieb:
PS: Alle meine Aussagen beziehen sich natürlich auf der Grundlage, daß Igor einen korrekten Meßaufbau hat.. und für mich sieht's ganz danach aus, ich würde genauso vorgehen!
Der Aufbau wird regelmäßig kalibriert, genauso wie die Stromzangen, und ich messe an allen Rails zudem massefrei. Sowohl die Ströme (bauartbedingt durch die Clamps), aber auch die Spannungen.

Die größte Fehlerquelle sind übrigens Verschiebungen zwischen Strom- und Spannungswert. Viele Netzteile haben sehr kurzzeitige Spannungsschwankungen und wenn sich da nur ein kleiner Versatz ergibt, fallen u.U. die falschen Peak-Werte aufeinander, da die Messelektronik der Zangen stets langsamer ist, als die direkt gemessenen Spannungswerte. Da kommen wir schnell in Größenordnungen. Die Zangen habe ich alle diesbezüglich eichen lassen und der jeweilige Delay ist in den Oszi-Eingängen hinterlegt. Dann stimmt auch der Zeitstempel wieder. :)

Im Übrigen differieren die Messungen aus einer Laufzeit von 3 Minuten kaum mit den Werten über eine Sekunde, wenn man insgesamt 6000 Einzelwerte pro Kanal zugrunde legt. Außerdem kann man auch negative Ströme messen, wenn Multi-Rail-Netzteile im Spiel und z.B. die beiden 8-Pin einer Karte getrennte Phasen bedienen.

Nehme ich aber so eine Baumarktzange und messe eine Sekunde, dann steht fast immer deutlich mehr auf der Uhr. Ich hatte ja letztens auch einen Grundlagenartikel dazu, verlinke den hier aber ais Pietätsgründen natürlich nicht :)
 
  • Gefällt mir
Reaktionen: Stefan71, .Snoopy., Matthias Berger und 3 andere
Pascal ist effizienter als GCN5 aka Vega, die 1080Ti ist ja - zumindest im (Gameworks-lastigen) Testparcour von CB- im Schnitt 30% schneller bei gleichem Verbrauch.

Ja die 30% Performance mein ich ja nicht. Die sind mir egal. Das aufgrunddessen Pascal effizienter bleibt als Vega ist daher auch "geschenkt". Mir gehts wirklich nur rein um die "Watt", Wärme, Strom whatever. Und um das wie es oft bzw. bislang überall dargestellt wird.

Aber z.B. Hier: stehen z.b. bei der Stock Vega64 300 W:
https://www.computerbase.de/2018-02/asus-radeon-rx-vega-56-strix/3/#abschnitt_leistungsaufnahme
Die Stock 1080 Ti Fe hingegen 212 W:

Also berechnet sich die Effizienz in etwa so:

Vega64 @ 300W @100% Leistung
1080 Ti @212W @130% Leistung

=> Effizienz Vega = 3W/% vs. 1.64W/% oder anders ausgedrückt:
1080 Ti 100% Performance/W
Vega 64 54% Performance/W


Vergleiche ich das also mit einer guten Messung:
https://www.tomshw.de/2018/12/01/de...e-und-lastspitzen-entmystifiziert-igorslab/5/
https://www.tomshw.de/wp-content/uploads/2018/12/Peak-Load.png

Ergibt das also ein Delta von -38W "Pro" nVidia UND +50W Contra Vega64

Damit ergeben sich rein "Effizienz"-Technisch also:

Vega64: 250W @100% = 2.5W/%
1080 Ti: 250W @130% = 1.92W/%

1080 Ti 100% Performance/W
Vega 64 77% Performance/W


Also 54% vs 77% (korrekt gemessen)
Das ist schon ein ziemlich himmelweiter unterschied findest du nicht ?!?
 
  • Gefällt mir
Reaktionen: Matthias Berger, EchoeZ und surtic
@Iscaran Das ist schon beeindruckend, wie anders die Zahlen aussehen können. Und jetzt? ;)
 

Bin ich immer noch auf eine neue Grafikkarte im Range 200-250€ gespannt ;). Und auf die ersten Werte von VII am 7.2.2018. Ich hoffe doch Igor macht damit ebenso genaue Messungen dann ;).

Btw. wie verhält sich das bei Polaris, also RX580, RX590 ? Die dürften ja dann auch alle etwas besser da stehen als gedacht - wenn die genaueren Messungen hier dermaßen rein hauen. Die kleineren Modelle werden ja genauso "grobschlächtig" den Verbrauch regeln und daher bei den meisten Testseiten schlechte Werte liefern ?
 
Iscaran schrieb:
Also 54% vs 77% (korrekt gemessen)
Das ist schon ein ziemlich himmelweiter unterschied findest du nicht ?!?
Der Meinung bin ich ja auch, deswegen versuche ich schon seit einigen Jahren dies richtig zu stellen. Wie in diesem Thread aktuell auch... Aber ohne (eigene) Belege stößt man auf taube Ohren. Gerne wird man als dann einfach als AMD Fanboy dargestellt der versucht die Stromfresser schön zu reden. Dabei war meine letzte AMD CPU ein X2 3800+ und seit November 2017 nutze ich meine erste AMD Graphikkarte (RX 470).
Damit wäre ich wohl der einer der schlechtesten Fanboys aller Zeiten :D

Seit Igor - hier einfach mal ein fettes Dankeschön @FormatC :daumen: - aussagekräftige Messchriebe bietet, sind mir diese Diskrepanzen aufgefallen und habe mit seinen Grafiken versucht meinen Eindruck zu untermauern. Aber spätestens auf der nächsten Seite eines Threads ist's wieder vergessen und die Hackerei auf AMD geht weiter.
Es ist quasi ein Kampf gegen Windmühlen....
Es wird höchstwarscheinlich daran liegen, daß ein übergroßer Teil der Foristen, einfach wegen fehlender Fachbildung (simpler Fakt, kein Vorwurf), garnicht in der Lage ist Igors Messungen richtig zu interpretieren.
Im Falle einer Glühlampe oder Ähnlichem ist es recht einfach zu sagen "Ist eine 100W Lampe 10 Stunden eingeschaltet, verbraucht sie 1kWh", aber PC Hardware ist da schon n bischen komplizierter...

Btw. wie verhält sich das bei Polaris, also RX580, RX590 ?
Da hat Igor auch mal einen netten Test durchgezogen, allerdings fehlt da der direkte Vergleich zur Konkurenz.
https://www.tomshw.de/2018/11/22/ef...ten-erkenntnissen-beim-untervolting-igorslab/

Sein Fazit:
Untervolten lohnt sich bei der Radeon RX 590 wirklich und zudem auch mehr denn je. Etwas heruntertakten kann auch smart sein, denn bei ca. 1500 MHz ist manuell untervoltet mit fast 30% auch die höchste prozentuelle Ersparnis drin. Man büßt nicht viel an Performance ein, kann aber ordentlich sparen. Nicht nur an der Steckdose, denn alles, was man nicht an Leistung aufnimmt und damit in Wärme umwandelt, muss denn auch nicht lautstark wieder an die Umwelt abgeführt werden.


Man schont also Portemonnaie, Umwelt und Ohren gleichzeitig! Da sind die paar Minuten investierte Zeit mit dem guten alten Wattman doch richtig gut angelegt. Wellness durch einfaches Handanlegen zum Nulltarif. Das hat Charme, Herrschaften. Also traut Euch…
Faust2011 schrieb:
Tja, jetzt geht's weiter wie bisher. Volker mißt so wie er es für richtig hält. Wie genau weiß eigentlich niemand, früher hat er mal mit nen Voltkraft Energy Star an der Dose gemessen und die Leistungsaufnahme des Gesamtsystems in die Balken gepackt (was irgendwie auch nicht besser ist), aber wie er heute auf die Werte kommt... kein Plan:confused_alt:

Diese Werte sind dann - wie immer - die Grundlage für horrende Stromkosten-Kalkulationen ala "Ich zocke jeden Tag 5 Stunden, das macht dann 365*5*0,4kWh (der wohl höchste hier gemessende Wert einer Vega64) weiter multipliziert mit nem Strompreis von 30 Cent die kWh kommen die Intelligenzbestien auf 219€ Stromkosten, alleine für die Vega. Eine 1080Ti braucht ja viel weniger.. 57% einer Vega64 wie Iscaran nach CB Werten berechnete was dann in etwa 125€ resultiert.
Dann ist natürlich klar, eine Vega64 kostet ~100€ mehr Strom als ne 1080Ti!!einselfusw
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo, Stefan71, .Snoopy. und 4 andere
interessant zu wissen wäre wie gut die h.265 codierung ist.
die von der Vega64 war zwar schnell aber die qualität war sowas von grottenschlecht
 
Zurück
Oben