Test Asus Radeon RX 480 Strix im Test: WattMan macht die schnelle Partnerkarte leise

Linmoum schrieb:
Das hat er auch gar nicht geschrieben. ;)

Hihi, recht hast du! Ok, dann geht Flg. an mich: Lesen Junge, lesen! Und verstehen! :D
 
Zuletzt bearbeitet: (scheiß Rechtschreibfehler!)
Sahit schrieb:
Ich hab echt keine Ahnung wieso Asus immernoch diesen Direct müll verfolgt. Eine Kupferplatte ist eindeutig sinnvoller. Aber andere Hersteller haben in Thermodynamik wohl besser aufgepasst als Asus so eine wird es definitiv nicht.

Wohl eher "Wärmeübertragung" und nicht "Thermodynamik" ;-)
 
heiko50 schrieb:
Er bezieht sich wahrscheinlich auf Tests (z.B. auf "tomshardware.de"), die die Grafikkarte alleine messen. Die 120W und 165W sind für die Referenz schon passend.
Dann weis ich aber nicht, wie dort gemessen wurde. Fakt ist: Die Referenzkarten (die eh niemand nutzt) unterschieden sich um 21W. Bei den (in der Praxis fast ausschließlich relevanten) Custom-Modellen beider Hersteller sind es nurnoch 5W die ein System mit RX 480 von einem ansonsten gleichen System mit GTX 1060 trennen. Selbst wenn die Karte ansich mehr brauchen sollte, dafür aber (wie auch immer) die CPU-Last senkt bleibt der Mehrverbrauch der letztendlich aus der Steckdose gezogen wird bei 5W.

Und 5W ist wirklich nichts. Bei 4H Gaminglaufzeit am Tag bei 20 cent/kWh sind das 1,46€ im Jahr, die das RX 480 System mehr kostet.
Da kann nun wirklich niemand mit geringeren Energiekosten argumentieren...
 
Xes schrieb:
Dann weis ich aber nicht, wie dort gemessen wurde. Fakt ist: Die Referenzkarten (die eh niemand nutzt) unterschieden sich um 21W. Bei den (in der Praxis fast ausschließlich relevanten) Custom-Modellen beider Hersteller sind es nurnoch 5W die ein System mit RX 480 von einem ansonsten gleichen System mit GTX 1060 trennen.
Woher weißt du, ob die Messungen korrekt sind und nicht entweder das Messgerät einen falschen Wert liefert (wer misst, misst Mist) oder aber einfach das Netzteil bei der einen Karte ineffizienter arbeitet und sobald du deines nutzt, der Unterschied direkt die 50W sind?
 
Xes schrieb:
Dann weis ich aber nicht, wie dort gemessen wurde.

Falls Interesse besteht

Ich glaube, du ziehst leicht voreilige Schlüsse durch die Messung des Gesamtsystems an EINEM Spiel. Die 1060 bietet dort 33% mehr FPS und lastet das "Restsystem" vermutlich wesentlich stärker aus.

ABER. Selbst ein Delta von 45W im Schnitt sind nicht die Welt für einen "Normal-Spieler" (2h/Tag). Vor Allem, wenn man mal bedenkt, dass Viele ihre Graphikkarte mit 2000MHz+ betreiben werden :D
 
Zuletzt bearbeitet:
zeedy schrieb:
:lol: 3 der 5 Heatpipes haben direkten Kontakt zur GPU. Asus lernts wohl nie! 3 Lüfter und 5 Heatpipes, und trotzdem recht hohe Lautstärke. Für mich steht nun endgültig fest: Aus Karten kann man vergessen. Der nächste bitte.

eher nur 2 von 5, die dritte ist ja nur etwas die Ecke

Ist ddieser Fail ein ASUS feature
 
heiko50 schrieb:
Ich glaube, du ziehst leicht voreilige Schlüsse durch die Messung des Gesamtsystems an EINEM Spiel. Die 1060 bietet dort 44% mehr FPS und lastet das "Restsystem" vermutlich wesentlich stärker aus.
Ach das erklärt es natürlich. Dann wissen wir ja, wo der Unterschied herkommt. 36 fps (RX480) vs. 48 fps (GTX1060).

Stellt sich eher die Frage, warum CB solch einen Mist misst, bzw. es nicht entsprechend kommuniziert.
 
R3sist_the_NW0 schrieb:
Hatte gehofft, die hätten die GPU bis an 1400 Mhz bringen können, aber nein...die GTX 1060 zieht davon...
Da nützen dann einem die 8GB VRAM auch nichts mehr wenn die GPU lahm ist in 2 Jahren bei den kommenden Spielen. (wenn sie es denn nicht bereits ist bei einigen Titeln in bestimmten Auflösungen)

Eher wird in zwei Jahren durch höheren VRAM und deutlich höhere DX12 Async kompatibilität die 480 bei technisch neu entwickelten Spielen schneller sein als die Nvidia. Die 480 ist absolut die zukunftssicherere Lösung.

JazzLash schrieb:
4% schneller als das Ref Design.
Obwohl die RX480 keine schlechte Karte ist, hat für mich die 1060 gewonnen, gleicher Preis, 6% schneller, und im gegensatz zur 480er noch reichlich luft nach oben durch OC

Nicht gleicher Preis, nicht 6%.

Schau nochmal genauer hin bevor du träumst. Der Preis ist in Prozent mehr als doppelt so viel höher als die Mehrleistung.
 
heiko50 schrieb:
Ich glaube, du ziehst leicht voreilige Schlüsse durch die Messung des Gesamtsystems an EINEM Spiel. Die 1060 bietet dort 44% mehr FPS und lastet das "Restsystem" vermutlich wesentlich stärker aus.
Ok, das hatte ich nicht gesehen/bedacht. Trifft das wirklich so zu, ist diese Gesamtsystem-Messung tatsächlich nicht aussagekräftig und meine Rechnungen wären damit hinfällig.

Damit wären aber generell alle Gesamtsystemmessungen hier auf CB untauglich, da die "je nach Spiel" Leistung/Leistungsaufnahme ja doch sehr unterschiedlich ist. (Sogar zwischen Grafikkartengenerationen eines einzelnen Herstellers.) Interessant, was man hier im Dialog so alles herausfindet, eventuell sollte CB da tatsächlich einen Vermerk setzen, dass die Ergebnisse extrem schwanken können, bzw. die Messungen über alle getesteten Spiele ausweiten um zumindest einigermaßen präzise zu sein.
 
CB misst mit Anno 2050 einfach den Worstcase für beide nicht mehr und nicht weniger:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11110509&postcount=3330

Die Messung ist nur einfach zu ungenau, um daraus zu schließen, dass das eigene System so reagiert.

Mit der Argumenation brauchts dir eigentlich gar keine Benches ansehen, es sei denn du hast genau das gleiche System wie im Test. Benches sind auch immer nur Momentaufnahmen für bestimmte Szenen in bestimmten Settings für eine gewisse Zeit in einer bestimmten Ausflösung. Benches sind daher lediglich Wegweiser und niemals die ultimative Wahrehiet für den einzelnen.
 
Xes schrieb:
Ok, das hatte ich nicht gesehen/bedacht. Trifft das wirklich so zu, ist diese Gesamtsystem-Messung tatsächlich nicht aussagekräftig und meine Rechnungen wären damit hinfällig.

Damit wären aber generell alle Gesamtsystemmessungen hier auf CB untauglich, da die "je nach Spiel" Leistung/Leistungsaufnahme ja doch sehr unterschiedlich ist. (Sogar zwischen Grafikkartengenerationen eines einzelnen Herstellers.) Interessant, was man hier im Dialog so alles herausfindet, eventuell sollte CB da tatsächlich einen Vermerk setzen, dass die Ergebnisse extrem schwanken können, bzw. die Messungen über alle getesteten Spiele ausweiten um zumindest einigermaßen präzise zu sein.

War in der Zeile verrutscht, eigentlich sind es 33%. Das ändert natürlich aber nichts an der Argumentation ;)

CB hat wahrscheinlich nicht das Equipment, um die Leistungsaufnahme perfekt ermitteln zu können (direkt am PCI-E-Slot / 6-Pin), aber dafür gibt es ja noch zahlreiche andere Seiten, die dafür weniger Spiele benchen zum Beispiel :)
 
Dai6oro schrieb:
CB misst mit Anno 2050 einfach den Worstcase für beide nicht mehr und nicht weniger:
Naja, das Problem in a nushell ist:

Man hat zwei Grafikkarten, die sich durchschnittlich im Bereich von -/+5% untereinander bewegen. Man testet ihre Leistungsaufnahme aber in einem Benchmark, in dem die karte gut 35% schneller ist.

Das wäre ungefähr so, als würde man von zwei Autos den Verbrauch ermitteln, wo der eine dauerhaft Vmax fährt und der andere 130. Klar, wer da gewinnt.

btw: Toms Hardware hatte, wenn ich mich recht entsinne, bei der Fury ähnliches geschafft. Da war es Unigine Heaven als Bench für die Leistungsaufnahme. Es kann also jedem mal passieren, man muss es nur a) merken, b) kommunizieren und c) daraus lernen.
 
Mardy2802 schrieb:
Ehhhhm nein, selbst dafür reichen deine Rechenfähigkeiten nicht.
Wenn ich von 120 W 194 W abziehe, hab ich: 74 W? Nee, ich hab eine negative Leistung, was so nicht Sinn macht :p

Edit: Nur der Vollständigkeit halber: Es macht keinen Sinn, dass das restliche Testsystem einen anderen Verbrauch hat, denn das ist hier ja die Konstante. Nachdenken Junge, nachdenken!
Sprach derjenige mit einer Leseschwäche...😐
 
Hey 5 Watt sind 5 Watt! Damit krieg ich 2 LED Lampen in meiner Wohnzimmerdecke betrieben!
 
Es sind aber höchstwahrscheinlich nicht immer nur 5W, (die wären tatsächlich irrelevant):

Heiko50`s Beitrag hat den entscheidenden Hinweis gegeben: Im Test wird Anno getestet. Hier erreicht die GTX 1060 allerdings deutlich höhere FPS, was auch deutlich höhere CPU-Last verursacht. Damit einhergehend steigt tatsächlich die Leistungsaufnahme des Testsystems.
Würde die RX 480 in diesem Spiel die gleichen FPS schaffen, wie die GTX 1060, wäre die Leistungsaufnahme deutlich höher. Oder um das ganze in die Praxis zu übertragen: In anderen Spielen, in denen die RX 480 gleichviele, oder mehr FPS als die GTX 1060 erziehlt ist die Leistungsaufnahme höchst wahrscheinlich deutlich höher.
 
Conceptions schrieb:
Doom kann Asynchronous Shader unter Vulkan, nvidia kann Asynchronous Shader mal wieder nicht... Nicht Doom ist das Problem, sondern nvidia.
Formulieren wir es doch so: AMD macht das alles in Hardware und NVidia in Software. Was ja auch stimmt. Dumm nur, dass es in SW halt nicht die Vorteile bringt, die einer HW-Implementierung gegeben sind.

@ALL: CB benchmarkt nicht explizit in DX12 DX11 Vulkan, sonder in dem der Grafikkarte jeweils "genehmsten" Renderpfad.

Nuja, ich kann das Argument nachvollziehen, würde allerdings wie die meisten hier klare DX11 / DX12 / Vulkan -Läufe bevorzugen.
 
Sontin schrieb:
Computerbase hat auch den Verbrauch in Battlefront gemessen: https://www.computerbase.de/2016-07...nahme-des-gesamtsystems-star-wars-battlefront

Dort erreichen die GTX1060 und die RX 480 die selbe Leistung. Der Verbrauch liegt 50W höher, was auf die typischen 120W und 170W hindeuten.

Dort wurde praktischerweise auch gleich der durchschnittliche "Mehrverbrauch" angegeben: 23% (Gesamtsystem)

Ich vermute jedenfalls, dass die RX480 ziemlich genau bei jedem (anspruchsvollen) Spiel ca. 165W leistet, weil das 100% des PT entspricht.
Man kann ja vielen Tests entnehmen, dass fast immer bei Standardeinstellungen der Takt gethrottelt wird auf Grund des Powertargets. Bei der GTX 1060 bin ich mir nicht sicher, wird sich aber ähnlich verhalten...

@CB Für die Zukunft wäre eventuell eine Angabe in Watt/FPS noch interessant. Der Aussagewert ist ja dann etwas größer und es kommt zu weniger Missverständnissen, wenn konkurrierende Graphikkarten auf normalerweise ähnlichem Leistungsniveau bei einem Spiel mal aus der Reihe tanzen :)
 
pipip schrieb:
EchoeZ

Ich merke eher, dass viele gar nicht den Test lesen, sondern lediglich schauen, was hat den längeren Performance und den kleineren Verbrauchsbalken :D

http://media2.giga.de/2016/07/NVIDIA-GeForce-GTX-1060_VCZ_04.jpg

Es wird schon einen Grund haben, wieso es solche Balken gibt.

Wer diesen kompakten aber guten Tests wirklich durchgelesen hat, merkt, dass die RX 480 mit GPU OC ca 3% an Performance gewinnt, aber mit dem OC des RAM im Schnitt 4-6 %
Eigentlich hätte mich interessiert, wie die Karte nur mit RAM OC so abgeschnitten hätte und ob das eigentlich das "sinnvollere" OC ist.

Der RAM wird durch den völlig vergurgten ASUS Kühler ohnehin nicht gekühlt, normalerweise gehört auf die Platine ein Metallstützrahmen der gleichzeitig die RAM Module kühlt. Durch die direkt CU Variante des GPU Kühlers geht das aber anscheinend nicht, da dieser zu wenig Platz lässt. Die Karte ist schonmal durchgefallen, vermutlich wird es bei mir ohnehin ein Saphire RX480 Nitro oder Nitro+ Modell werden. Insofern die Teile sich hardwaretechnisch nicht unterscheiden außer im takt wirds natürlich das ohne "+"
 
Zurück
Oben