Test Radeon RX Vega 56 Strix im Test: Leiser Betrieb zu Lasten der Temperatur

@Luxmanl525
Langsam wird es albern. Wenn die Sachverhalte für dich identisch sind, dann ist es eben so. Für mich macht es einen wesentlichen Unterschied, ob mir nach einem Test/Review vor dem Release die Eigenschaften bewusst sind und ich mich entsprechend bewusst für/gegen einen Gegenstand entscheide. So wie beim Stromverbrauch (Idle, Vollast, PCIe usw.), welcher nicht auf den Watt genau zugesichert wird und entsprechend der Kühllösung, des Platinenlayouts, der Komponenten, der Spannung, den Einstellungen, der Modelle variiert. Genauso wie die Leistung oder die Taktraten, die auch nicht 100% zugesichert werden und entsprechend variieren und somit getestet werden müssen. Oder kaufst du blind und beschwerst dich weil AMD/Nvidia auf ihrer Webseite mit 100fps in Battlefield1 werben, du aber nur 50fps erreichst? Alles gelogen?... Sonst kann man sich direkt alle Tests schenken...

Anders dagegen verhält es sich für mich mit fest zugesicherten Eigenschaften wie Shader-Anzahl, Speicher-Interface, Speichermenge. Das muss nicht jedes mal explizit getestet werden, es ist immer identisch. Wenn ich 4GB mit 256Bit kaufe, dann erwarte und will ich dort keine "variation". Anhand dieser Eigenschaften muss ich für mich die zukünftige Performance abschätzen, z. B. 3gb vs 4gb etc.
Wenn ich dann 4gb an 256bit wähle, dann wähle ich eben nicht 3,5gb an 224bit + 0,5gb an 32bit (quasi nutzlos). Wenn das Problem dann aufgrund der Komplexität nicht in den Tests aufgedekt werden kann und vom Hersteller verschwiegen wird, dann habe ich keine Möglichkeit mich nach den Tests/Reviews objektiv zu entscheiden.

Mir geht das nicht in den Kopf, wie du solche Sachverhalte einfach gleichstellen kannst und sonst ohne weitere Argumente AMD und Nvidia über einen Kamm scherst ("die nehmen sich da nichts").
 
Zuletzt bearbeitet:
cruse schrieb:
und nv hat zwar ein altes treiberlayout, aber dafür können sie wenigstens programmieren. amd brauch dafür immer extra anläufe.

Kochen beide nur mit Wasser. Auch Nvidia hat Totalausfälle. zB Wolfenstein zu Release mit Bildfehlern.

Laß mich doch mal Raten, du zahlst deinen Strom nicht selbst, hmmm? Schau, wenn ein Mitbewerber eine Karte aus ähnlichem Preissegment hat, die locker über 100 Watt mehr Strom zieht, merkt man das einfach im Geldbeutel. Und nicht nur, wenn man seinen Strom selbst zahlt. Wobei 100 Watt je nach Modell noch niedrig gegriffen sind. Von der Abwärme will ich gar nicht erst Anfangen, daran denken die meisten in dem Zusammenhang nicht einmal. Und ich will nicht mal Anführen, daß die Karte mit dem eklatant niedrigeren Stromverbrauch dann auch noch schneller ist.

Da merkst du garnichts im Geldbeutel. Einfach mal selbst nachrechnen. Alleine wenn du deine Graka durch mehr VRAM ein Jahr länger nutzen kannst sparst du deutlich mehr!

Schon krass wie manche den Verein verteidigen. Ich war auch mal "Nvidia-Fan". Das hat sich aber nach ein paar regelmäßigen "Entgleisungen" geändert. Nvidia ist für mich kein Premium. Die müssen ersteinmal signifikant günstiger sein, dass ich da freiwillig einkaufe. Wer über Jahre sich aufmerksam mit Hardware-News beschäftigt wird zu dem selben Schluss kommen.
https://www.heise.de/newsticker/meldung/Kommentar-Nvidias-schmutzige-Kartentricks-2529523.html
 
Zuletzt bearbeitet:
Zu teuer wie eigentlich alle Karten derzeit. Komisch niur, dass das Problem mit dem VRam erst sehr spät bei der GTX 970 aufgefallen ist. Und für mehr als FHD war die nie gedacht oder gemacht.
 
Baal Netbeck schrieb:
Von welcher "Speicherkontroller Spannung" ist immer die Rede? Kann man die mit irgendeinem extra Programm anpassen oder über den Registry Mod? Habe das auch schon in dem letzten CB Artikel zum Mining gelesen und bin verwirrt;).....im Wattman sehe ich die bei mir nicht.


Edit:
Falls die "Spannungsregulierung" gemeint ist....soweit ich weiß hat die nichts mit dem Speicher(controller) zu tun. Die scheint nur die Spannungsuntergrenze der GPU unter Last festzulegen.....ziemlich sinnlos, da sich das PT oder niedrige P-states darüber hinweg setzen und die etwas stabilere Spannung unter Last keine spürbaren Vorteile zu bieten scheint....zumindest nicht solange man das PT nicht um 150% angehoben hat(ohne reg mod nur bis +50% möglich).
Meine Karte setzt die auf 950mV und niedriger stellen hat bei mir nichts geändert...höher als die GPU Spannung stellen hat die GPU Spannung dementsprechend erhöht....aber sinnvoll ist das alles nicht.

Ich habe eine Vega64 LC(auf Fullcover umgebaut)
Ich lasse die einfach auf 950mV und gut. Die GPU Spannung habe ich auf 1050mV gestellt(liegen dann um die 1V an). HBM2 auf 1050MHZ(bis max 1120 sind stabil aber das ist mir auf Dauer zu kritisch)
PT+50% und P7 auf 1702MHz.....da kommt man von der Leistung leicht über das Balanced Profil und vom Verbrauch her um die 60W weniger.

Das macht Vega nicht zu einer effizienten Grafikkarte, aber es ist eine Verbesserung und weil man nicht mehr in PT hängt ist die Leistung konstanter.

Ich kann gut verstehen wenn Spieler vor Vega zurückschrecken....der jetzige Preis und die Anforderungen an Kühlung und Netzteil sind sehr hoch.

Aber AMD bringt unglaublich viel Innovation in den Markt. Dutzende (neue) Features und Ideen(HBCC, Hardwarescheduler, low level APIs, Schader Cache, Asynchronous compute, Chill, Wattman, Das neue Overlay)...natürlich versagen davon einige, aber mich begeistert das;).

Die Einstellungen sind schon gut, die du hast.

Mehr geht da auch nicht wirklich (Leistung pro Watt bei möglichst hoher Leistung). Wenn ich von Speichercontroler Spannung rede meine ich die zweite einstellbare Spannung in der Radeon Software. Was genau diese Spannung regelt, kann ich nicht sagen, aber sie regelt eine Art Minimalwert, wie du es bereits sagtest. Die Stabilität vom Speicher ist wirklich kritisch. Es scheint wohl seinen Grund zu haben warum AMD nur 945MHz eingestellt hat. Ich dachte erst 1100MHz seien stabil. Tatsächlich ist es nach Crysis nicht mal auf 1000MHz stabil -sogar mit Rechnerneustart und richtigen Rucklern bei nur 67°C auf dem Speicher.
 
Zuletzt bearbeitet:
Also an die 580 user die umsteigen wollen das ist das wenigstes Problem da man für die 580er auch 500€ bekommt je nachdem aber miner zahlen das alles .
Ich hatte extra gewartet auf Vega und keine nv gekauft im nachhinein ein fehler, wobei auch NV bei den Preisen in letzter Zeit gestiegen ist.
Aber jetzt pascal kaufen wo ampere quasi vor der Türe steht, mache ich auch nicht mehr .
 
Zuletzt bearbeitet:
Bäh... Dieser Motion Blur ist so ekelhaft. Soll der verschleiern, dass das Game keine 60 fps packt? ^^"
Mir persönlich fehlen hier erstmal die Info, in welchen Settings das ganze läuft.
Dann natürlich die ganzen stats... Auslastungen, Temperaturen, etc. Hauptsächlich aber überhaupt mal die fps? Nicht nur in 2-3 games, sondern in allen.

Verstehe nicht, wie Leute sich mit Motion Blur die Bildqualität so durch den Dreck ziehen können freiwillig :/
Da braucht man nicht in 4k zu Zocken, wenn man sich das ganze mit Motion Blur wieder zunichte macht >.<
1 Schritt vor, 2 zurück :/

videogamedunkey drückt es so ziemlich treffend aus: https://www.youtube.com/watch?v=2zE-J1rK1NQ&feature=youtu.be&t=126
(Minute 2:05)

Wobei ich sogar sagen würde... Motion Blur ist "ok", bei games, wo du nur nen 30 fps Lock hast. Weil das das Ruckeln halbwegs gut überdeckt.^^"
 
So entstehen also religiöse Kriege auf der Welt... Hier sind ja teilweise massive Fanatiker unterwegs aus beiden Lagern, die machen mir fast schon Angst.

Solche Fanboys überleben bestimmt auch einen Atomschlag, da sie ja bereits ausreichend verstrahlt sind :-)
 
@Luxmanl525
Beide Firmen haben Mist gemacht, aber bei der RX 480 gab es einen Treiberfix für den Idleverbrauch, die Option Energieeffizienz. Damit sank der idle verbrauch um die Hälfte.
 
alterSack66 schrieb:
...Komisch niur, dass das Problem mit dem VRam erst sehr spät bei der GTX 970 aufgefallen ist. Und für mehr als FHD war die nie gedacht oder gemacht.
1. Die Auflösung hat mit dem VRAM Verbrauch nichts zu tun, sondern nur die Grafikdetailstufe. Man kann auch geringst aufgelöste Texturen in 4k verwenden. Macht nur keinen Sinn, da es dort noch schneller stört, als in FHD.
2. Der 3.5 + 0.5 Mißstand ist durchaus damals aufgefallen. Z.B bei Total War Attila. Nvidia hat das mit individueller Treiberpflege aber nach und nach 'weggetreibert'.
3. Im dem Fall, wenn Dein wenig verbreitetes Lieblingsspiel vom Speicherproblem betroffen ist und Nvidia keinen 'Cheat-Treiber' für eben dieses Spiel liefert, kann man nur die Grafikkarte austauschen oder damit leben.
 
Zuletzt bearbeitet:
wie sie alle über lautstärke meckern. ich denke das viele Tests, auch auf computerbase lautstärke sehr hochspielen und das dann user übernehmen. nichtmal meine evga sc 460gtx >(oder 970 gtx)war im standart eine turbine. vielleicht sollten sich viele mal Gedanken über ihre gehäusebelüftung und die Wahl des Gehäuses machen. ich habe noch keine meiner grafikkarten im spiel wirklich laut "gehört"
 
neofelis schrieb:
1. Die Auflösung hat mit dem VRAM Verbrauch nichts zu tun, sondern nur die Grafikdetailstufe. Man kann auch geringst aufgelöste Texturen in 4k verwenden. Macht nur keinen Sinn, da es dort noch schneller stört, als in FHD.

Und warum musst du die Texturauflösung komplett runterschrauben, wenn du in 4K spielen willst? Weil die Auflösung eben sehr wohl etwas mit dem VRAM Verbrauch zu tun hat.
 
370 Watt mit OC, holla die Waldfee. Sprich da laufen dann tatsächlich die 2x 8pin-PCIe Stecker + PCIe-Slot am Limit von dem was sie an Strom raus hauen sollen. Und das ist nichtmal der große 64er Chip :freak:

Diese Architektur ist einfach komplett für die Tonne. Offensichtlich viel zu viel Balast im Chip, der einem bei Gaming keine Leistung bringt.

Kann man echt nur noch hoffen, dass Dark_Knight recht hat und schon für Navi ordentlich abgespeckt wird.
Selbst für 350 € würde ich das teil nicht kaufen und das ist wohl ein Preisniveau das sie sowieso nie erreichen wird :(
 
Gorby schrieb:
370 Watt mit OC, holla die Waldfee. Sprich da laufen dann tatsächlich die 2x 8pin-PCIe Stecker + PCIe-Slot am Limit von dem was sie an Strom raus hauen sollen. Und das ist nichtmal der große 64er Chip :freak:

Diese Architektur ist einfach komplett für die Tonne. Offensichtlich viel zu viel Balast im Chip, der einem bei Gaming keine Leistung bringt.

Kann man echt nur noch hoffen, dass Dark_Knight recht hat und schon für Navi ordentlich abgespeckt wird.
Selbst für 350 € würde ich das teil nicht kaufen und das ist wohl ein Preisniveau das sie sowieso nie erreichen wird :(

Wer bei Vega stur OC betreibt, ist doch eh mit dem Klammerbeutel gepudert.
Was wollt ihr damit bezwecken @Computerbase?

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585818

Wolfenstein:
Default 265W 144FPS
UV/OC 155W 145FPS
Also -110W!(ASIC)

Witcher:
Default 264W 97FPS
OC/UV 155W 99FPS
Also -109W!(ASIC)
 
Jedes mal wenn AMD so eine Karte verspricht und dann nicht liefert, verschlechtert das die Marktsituation für uns Kunden.

Die Karte ist auch so oder so auf den Adrenalin-Treiber angewiesen, und das ist das einzige Stück software das ähnlich schlecht wie Flash ist.
 
Mir persönlich fehlt noch ein kleines Spannungsabsenken.
Klar hängt das wieder genau an dem Chip und würde den Test sprengen, aber so ein grobes was geht wäre nett (aber gabs evtl. schon in nem anderen test..)
 
janeeisklar schrieb:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585818

Wolfenstein:
Default 265W 144FPS
UV/OC 155W 145FPS
Also -110W!(ASIC)

Witcher:
Default 264W 97FPS
OC/UV 155W 99FPS
Also -109W!(ASIC)

Mit sowas brauchst du den meisten Usern hier nicht zu kommen. Entweder sie können es tatsächlich nicht oder sie wollen es nicht verstehen. Sogar ComputerBase hat die Referenz Vega 64 und 56 mit unterschiedlichen BiosModi getestet (Vega bietet schließlich genug Optionen) und dabei festgestellt:
Die V56 verbraucht im Bios2@PowerSave 188W und leistet -5,1% verglichen zum "Normalzustand" (Bios1@Balanced)
Die V64 verbraucht im Bios2@PowerSave 209W und leistet -6,8% verglichen zum "Normalzustand" (Bios1@Balanced)

Die Referenz V56 ist bei diesen Einstellungen z. B. immer noch schneller als eine GTX1070 FE. Und mit etwas Feintuning und UV kommt man problemlos in 160W-170W Regionen bei gleichzeitig besserer Leistung. Natürlich verbraucht die GTX 1070 mit 140W etwas weniger. Ist es für mich relevant? 140W oder 188W, ist beides problemlos kühlbar und nach 5 Jahren sind es 30€ Unterschied bei Stromkosten... (3x3std die Woche). So what?

Aber irgendwie muss man sich den Kauf einer GTX70/80 im Zweifel rechtfertigen (weils schließlich keine Alternativen gibt!!!111). Da kommen die 360W Kotzgrenzen-Verbrauch der Vega natürlich passend. Hat man zumindest den Eindruck.
 
Zuletzt bearbeitet:
Darkseth88 schrieb:
Darf ich auch ne runde Lachen?

Meine GTX 1080 verbraucht auch nur 60 Watt, wenn ich League of Legends zocke. :freak:

Bei gleicher gelieferten Leistung wird eine 1080 deutlich sparsamer sein.
Wenn deine RX 64 dank v-Sync nur noch 60 fps liefern muss, statt 100, trifft das auch auf die GTX 1080 zu.

Und rate mal, Undervolten geht auch bei Pascal ;-)
Ich krieg meine 1080 bei max paar % Leistungsverlust auf <130-140 Watt unter voller Last dauerbelastung. Du deine Vega 64?
Dabei ist meine noch etwa so schnell, wie ne referenz Vega, die 300w schluckt vor dem optimieren.

Es sei denn, du kannst dafür mal einige belege nennen? ^^ Würde da gerne mal paar werte + vergleiche zur 1080 haben.

Appropos: Frametarget brauchst nicht, wenn du V-Sync an hast.
Und, wenn dir nur ein Bruchteil der Leistung genügt hättest ja auch ne günstigere Karte kaufen können?

Interessant wird es in szenarien, wo die karte nicht nur auf 40% gedrosselt läuft, dank frame limit etc.

Kann ich dir erklären wozu Frametarget, damit ich nicht sinnlos in Menüs wo VSync nicht wirkt 3000FPS habe und die Karte dabei sinnlos mit Vollast vor sich hin Gurkt... bei NVIDIA's überalteten WinXP Style-Treibermenü und dessen Menüsteuerung gibt es sowas bis heute nicht.

Ich undervolte auch und bei entsprechenden Spielen, ich habe einen iiyama 40" 4K mit bisher allem drin außer AA "da ich meist unter 4k keine Treppenbildung habe oder so minimal ist das es mich nicht stört" frisst die Karte, ausgelesen mit Afterburner+Rivastat 200-250W um die 1500-1600MHz und sogut wie überall habe ich AVG 40-60FPS.

Bei alten kram dümpelt die Karte mit 300MHz und 20W für 4K dahin unter IChill+VSync und Frametarget 60FPS, vorallem beste bsp. da CS:GO 4K alles was geht und ich zocke auch sehr viel zeug von ~2004-2010.

Und auch so ich Zocke keine 8h am stück von absolut aktuellen TOP Titeln das mich wenn ich dies tue mir die 250W auch völlig Scheiß egal sind.

In den meisten Spielen und Szenarien ist sie von der Leistung einer 1080 überlegen, gibt auch hier und da was wo eine 1080Ti überholt wird, dabei sollte man nicht vergessen das NVIDIA sogut wie überall eine Kooperation mit Spieleherstellern und bei den engines einen Fuß in der Tür hat.

Außerdem bin ich immernoch einer der Verfechter der fest daran glaubt das die Vega64 noch locker 30% an Leistung durch Treiberoptimierung in Zukunft drauflegt, zb. durch Primitiv-Shader implentierung bei den Spieleschmieden.

Als beweiß guck wo vorallem die AMD Fury bei Release stand, da kam sie nichtmal an eine 980Ti ran, heute lässt sie die gemütlich hinter sich... und umso mehr du aufdrehst desto deutlicher, mal mit ausnahme das Ihr der VRAM ausgeht.

Na wie auch immer, ich bin auch kein Fanboy, ich kaufe mittlerweile grundsätzlich so damit ich den quasi Marktführer nicht weiter an der Monopolisierung behilflich bin, also aktuell kein Intel und NVIDIA... aber ersteres Kaufe ich eh niewieder so einfach ist das!

Also Lach mal weiter in der Runde, ich lache dann später weiter, weil ich bin keiner der sich jedes Jahr ne neue Graka oder System hinstellt, in 2 Jahren lache ich über dich weil du Aufrüsten musstest und ich mehr Leistung bekommen habe.
 
Zuletzt bearbeitet:
@ berkeley:
"feintuning und UV" kann man auch bei Nvidia-karten betreiben. und viele leute interessiert sowas auch einfach nicht, die wollen eine graka kaufen, einbauen und spaß haben ohne da erst an den settings rumspielen zu müssen.
 
Das Produkt Vega ist von vorne bis hinten misslungen. Technisch gesehen kommt es um ein Jahr zu spät und den Rest erledigen nun die Mondpreise und die schlechte Verfügbarkeit.

Was für ein Flop.
 
Zurück
Oben