Test AMD Radeon RX Vega im Test: Mit neuen Treibern und Spielen gegen Fiji

;) erhöhe mal von 950mV auf 960mV.

Obwohl ich nicht weiß wie hoch du mit dem Speicher bei deinen HBM temps noch kommst.
HBM mag es gern kälter.
 
Wenn ich Power spare hab ich auch weniger Temps. Probier ich mal aus heut Nacht.
 
O_Saft
Alles weiter per PN/Unterhaltung

Sry 4 OT
 
Schweif schrieb:
Hier meinte jemand das man bei ner Vega für 200W nur 1200-1300Mhz bekommt. Dieses muss ich verneinen. Gibt für etwas weniger, sogar etwas mehr.
Mit sowas wäre ich vorsichtig. Du beziehst dich ja scheinbar nur auf GPU Only. Da kommt dann noch Speicher hinzu, und die Wandlerverluste bzw. die Gesamte Boardpower. Normal beziehen sich solche Werte immer auf die Gesamte Karte, wenn sie wer in den Raum wirft.

Zu deinen Spannungen. Kannst du diese denn mit HWiNFO validieren? Meine Frontier kann mit den Consumermodellen zwar nicht mithalten was UV angeht, aber ich bezweifle doch arg dass du bis 1600MHz bei 875mV kommst.
 
BestinCase schrieb:
AMD hatte ja auch gesagt, dass sie die dx11 Schwäche angehen wollen, da wäre ein offizieller Test auch mal wieder interessant...

Hab grad mal den API Overhead Test von 3D Mark gemacht.

Ein alter von mir mit Nvidia GPU: https://www.3dmark.com/aot/251783

Neuer mit RX Vega 64: https://www.3dmark.com/3dm/26907824?

Nvidias Treiber ist fast 30 % schneller beim Single Thread DX11 und beim Mullti Thread DX11 mehr als 100 % schneller. Beide Tests natürlich mit der selben CPU und Taktraten. DX11 ist zwar alt aber es laufen immer noch die meisten Spiele mit DX9 und DX11. Man braucht also wenn man eine AMD GPU kauft und hohe FPS haben will eine starke CPU. Würde man eine Nvidia GPU kaufen kann man hier theoretisch bei der CPU sparen und was langsameres nehmen oder braucht z. B. kein Overklocking. Sofern man halt überwiegend DX11 Titel spielen will. Ich glaube auch nicht das AMD noch groß in DX11 optimiert, die wollen Zukunft und ich denke das DX11 wenn man sich die Zeichenaufrufe / Sekunde im Vergleich anschaut langsam ausgedient haben muss. Hoffe die Spieleentwickler setzen bald endlich verstärkt auf Vulkan und DX12.
 
Zuletzt bearbeitet:
r4yn3 schrieb:
Mit sowas wäre ich vorsichtig. Du beziehst dich ja scheinbar nur auf GPU Only. Da kommt dann noch Speicher hinzu, und die Wandlerverluste bzw. die Gesamte Boardpower. Normal beziehen sich solche Werte immer auf die Gesamte Karte, wenn sie wer in den Raum wirft.

Zu deinen Spannungen. Kannst du diese denn mit HWiNFO validieren? Meine Frontier kann mit den Consumermodellen zwar nicht mithalten was UV angeht, aber ich bezweifle doch arg dass du bis 1600MHz bei 875mV kommst.

Hmm, aus dem Blickwinkel hab ich es natürlich nicht betrachtet.
Ich hätte gedacht er meinte Vega ( GPU )an sich.

Das wäre das kleinste was ich anzubieten habe. 850mV@161.png
Sprich: Für mich kleinste mögliche Spannung bei max Stabilen möglichen Takt bei der Regelung.
Wenn er die kompl. Karte gemeint hat, dann ja, für mich nicht möglich u200w.
Dann hätte er Recht.


Hier nochmal die valid. mit HWinfo
1200@CB@HWinfo.png

Grüße
 
Danke für den Test, habe ich bei Veröffentlichung wohl nicht gesehen auf der Startseite.

Leider scheint Vega ja ein kompletter Flop für viele Anwender zu sein. Hoffe, dass die nächste Generation wieder die Konkurrenz und den Markt belebt (ähnlich wie beim CPU-Geschäft)
 
Wadenbeisser schrieb:
Erzähle keine Märchen, die Nummer ist ja erst aufgeflogen weil die 970er im Vergleich zur 980er eher angefangen hat zu stottern bzw. wie bei ausgehendem Grafikpeicher Nachladeruckler zu produzieren.

Nicht wirklich nur dadurch, nein, vor allem weil die RAM Auslastung nimmer weiter hoch ging, also über 3584MB.
Wadenbeisser schrieb:
Da gab es sogar hier bei Computerbase Tests zu. Der Treiber "umgeht" das seither indem er ums verrecken versucht die 3,5 GB Grenze nicht zu überschreiten, also nicht den ganzen vorhandenen und mit bezahlten Grafikspeicher zu nutzen.

Ned wirklich in jedem Spiel, ich hatte auch die 970 bis vor 1 Jahr und da selbst in Far Cry Primal war das kein Problem, trotz fast 4GB.
Aber wir müssen uns darüber nicht streiten, du hast sowieso die maximal möglich Anti-Nvidia Meinung darüber, egal was nun stimmt oder nicht aber darum gings gar nicht.

Meine Aussage war nur: Es hat die Kunden einfach weniger interessiert als du glauben möchtest.
Die Karte war trotzdem hervorragend gegenüber dem Angebot von AMD, sparsam leise ja dann halt manchmal nur mit 3,5GB Speicher, okay, das ändert ja nix dran dass die Karte in den Tests gut abgeschnitten hat und es auch heute noch tut.
Wadenbeisser schrieb:
Und natürlich bricht die Karte ein wenn der vorhandene Grafikspeicher überläuft, siehe das Gejammer um die Fury Karten und mal wieder ist es kein Problem wenn es um ein nvidia Produkt geht. :rolleyes:

Jede Karte bricht ein wenn der Grafikspeicher überläuft.

Wadenbeisser schrieb:
Und mal wieder ist es schön zu sehen wie du dich selbst disqualifizierst indem du dich selbst widersprichst.
Erst soll die ineffiziente Nutzung der Hardware durch die alten APIs kein Problem sein

Ich hab nicht gesagt dass das kein Problem ist, sondern nur dass es die Kunden da draußen einfach halt ned juckt, aber mit der Tatsache kannst du halt einfach nicht leben.
Wadenbeisser schrieb:
Das du beim Thema Desktop Grafikkarten jetzt schon auf Laptops ausweichst

Um dir zu zeigen dass hoher Stromverbrauch für Marktanteilverluste verantwortlich is, egal ob das jetz bei Nvidia oder AMD passiert.;)

Die Punkte sind für Desktop PCs abgesehen von Ausnahmefällen weitestgehend egal.

Ja, deine Meinung. Punkt. Andere denken halt anders, was ja gar nicht bewiesen werden muss, wirfst du mal nen Blick auf Thermi.
 
Und schon wieder so eine absolut falsche Aussage.

Manchmal würde ich gerne so jemanden wie dir direkt und offen sagen was ich von so einer Aussage halte. Verstößt leider gegen die Forenregeln. :evillol:
 
Wolfenstein Ist das Nvidias FineWine?

Nvidia hat scheinbar mit neuen Treibern die Wolfensteinleistung deutlich verbessert.:p

Hier habt ihr auch nommal die Bestätigung dass sich nix bei AMD getan hat, wie aus diesem Test hier.

 
Schweif schrieb:
Hier meinte jemand das man bei ner Vega für 200W nur 1200-1300Mhz bekommt. Dieses muss ich verneinen. Gibt für etwas weniger, sogar etwas mehr. ;)

Anhang anzeigen 685342
.
Kann durchaus sein das ich das war. ;)
Die Wattmann Einstellung hatte ich aber auch genannt.
Oben bei den Leistungsprofilen den Regler ganz nach links auf "Strom sparen", das Stromspar Profil eben.
Bei den VErbrauchsangaben muss ich mich auf das verlassen was die Sensor Liste bei hwinfo64 ausgibt denn es ging ja um den Verbrauch der Grafikkarte und nicht um den des gesammten Systems. Der System Verbrauch ging aber natürlich ebenfalls deutlich runter.

O-Saft-Killer schrieb:
Hab grad mal den API Overhead Test von 3D Mark gemacht.

Ein alter von mir mit Nvidia GPU: https://www.3dmark.com/aot/251783

Neuer mit RX Vega 64: https://www.3dmark.com/3dm/26907824?

Nvidias Treiber ist fast 30 % schneller beim Single Thread DX11 und beim Mullti Thread DX11 mehr als 100 % schneller. Beide Tests natürlich mit der selben CPU und Taktraten. DX11 ist zwar alt aber es laufen immer noch die meisten Spiele mit DX9 und DX11. Man braucht also wenn man eine AMD GPU kauft und hohe FPS haben will eine starke CPU. Würde man eine Nvidia GPU kaufen kann man hier theoretisch bei der CPU sparen und was langsameres nehmen oder braucht z. B. kein Overklocking. Sofern man halt überwiegend DX11 Titel spielen will. Ich glaube auch nicht das AMD noch groß in DX11 optimiert, die wollen Zukunft und ich denke das DX11 wenn man sich die Zeichenaufrufe / Sekunde im Vergleich anschaut langsam ausgedient haben muss. Hoffe die Spieleentwickler setzen bald endlich verstärkt auf Vulkan und DX12.

Wie gesagt, nvidia hat es geschafft der Multicore Krücke DX11 mehr genutzte Kerne unterzujubeln, damit die CPU besser auszulasten und ganz einfach mehr von der vorhandenen Rechenleistung nutzbar zu machen.
Den Nachteil davon sieht man aber ebenfalls. Ist z.B. durch DX12 oder Vulkan doch die ganze verfügbare Rechenleistung der CPU abrufbar dann kommt durch den zusätzliche Treiber Overhead wieder weniger bei raus.

@ Gschwenni
Da die Märchenstunde bei dir nicht abebbt kann ich es mir im grunde genommen sparen weiter auf dich einzugehen aber noch eine kurze Zusammenfassung der Geschichte.
Es flog auf weil die GTX970 im Gegensatz zur GTX980 im Grenzbereich der Speicherauslastung rumstotterte, dann wurde seitens der User nachgeforscht, es fiel bei der 970er eine Anormalie beim Speicher Controller auf, dann wurde es auch von der Presse untersucht be der Gelegenheit fielen dann auch noch die ganzen anderen nicht dokumentierten Beschneidungen auf und das Thema kochte damit erst so richtig hoch.
https://www.computerbase.de/2015-01/geforce-gtx-970-speicherprobleme-statement/#bilder

Konsequenzen für die Nummer das man die Karte über Monate mit falschen Daten verkauft hat? Nahezu keine.
Eine Anpassung nachträgliche Anpassung der abweichenden technischen Daten in der Dokumentation, bei den Punkten Cache Größe und ROPs (die Beschneidung des Cache war ja letztendlich die Ursache für das ganze Debakel denn das zog den Rattenschwanz mit den ROPs und dem gespaltenen Speicherinterface ja erst nach sich und dadurch musste die Krücke für den Speicher Controller ja erst eingebaut werden) und das gespaltene Speicherinterface an sich, durch das die Nummer erst aufflog, wurde auch weiterhin in den technischen Daten verschwiegen.
Korrekturen bei der Hardware? Keine.
Konsequenzen für die Verkaufszahlen? Gehen gegen 0.
https://www.computerbase.de/2015-01/geforce-gtx-970-vram-speicher-benchmarks/
http://www.nvidia.de/object/geforce-gtx-970-de.html#pdpContent=2

Spätestens hier war für mich klar das der Wettbewerb in den Köpfen der Kundschaft ohnehin schon tot ist.
Ergänzung ()

Gschwenni schrieb:
Wolfenstein Ist das Nvidias FineWine?

Nvidia hat scheinbar mit neuen Treibern die Wolfensteinleistung deutlich verbessert.:p

Hier habt ihr auch nommal die Bestätigung dass sich nix bei AMD getan hat, wie aus diesem Test hier.
Es geht dabei aber um die 1070 ti, welche technisch näher an der GTX1080 als an der GTX1070 dran ist, dafür schlägt sich die Vega56 recht gut.
Und zum Thema Wolfenstein, das hing auch schon immer ein Stück weit von der Testszene ab.
Die Außenbereiche waren meiner Erinnerung nach die fordernsten für die Hardware und die Stärke der Radeons, bei dem Test sieht es eher nach einem Benchmark der Innenbereichen aus bei denen es deutlich ausgeglichener zuging. Wurde zwischenzeitlich mal die defekte Skybox bei den Geforce Karten gefixt?
 
Zuletzt bearbeitet von einem Moderator:
Wadenbeisser schrieb:
Da die Märchenstunde bei dir nicht abebbt kann ich es mir im grunde genommen sparen weiter auf dich einzugehen aber noch eine kurze Zusammenfassung der Geschichte.

Ach Märchenstunde, ich hab gar nix anderes gesagt als du, nur dass einigen Usern eben auch auffiel dass mehr als 3,5GB ned ausgelastet wurden, natürlich gab es Aussetzer bei Extremszenarien (das waren Hänger von einer Sekunde), die dann aber mit neuen Treibern gefixed wurden, das heißt die Karte verhält sich wie ne normale 3,5GB Karte, schlechtere Frametimes gibt es da deswegen nicht.

Aber wie schon x mal gesagt, ich streite mich mit dir nicht über solche Kleinigkeiten, Tatsache ist dass die Leute diese Problematik nicht interessiert hat und deswegen die GTX 970 kauften weil es auch mit weniger RAM eine sehr gute Karte war und die Konkurrenz ein Stromfresser war und Heizkraftwerk wie damals ne GTX 480 war.
Wadenbeisser schrieb:
Konsequenzen für die Nummer das man die Karte über Monate mit falschen Daten verkauft hat? Nahezu keine.

Wenns nach mia ginge, dann hätte Nvidia 500 Millionen Strafe für den Betrug zahlen sollen, aber was interessiert´s wenn es die Kunden trotzdem kaufen?
Wo kein Ankläger da kein Richter.
Wadenbeisser schrieb:
Spätestens hier war für mich klar das der Wettbewerb in den Köpfen der Kundschaft ohnehin schon tot ist.

Ist nicht tod, das ist nur ne Verschwörunsgtheorie mit ner extra Portion Gejammer.
Der Wettbewerb is alles andere als Tod wie man an Ryzen sieht.
AMD braucht bessere GPUs und konnte sich halt wegen dem guten Eindruck von Maxwell trotz 3,5GB Causa nicht durchsetzen und das is wahrlich keine Kunst bei +150 Watt und nem Refresh und dem generellen Ruf von AMD Hardware als Durchlauferhitzer.
Wadenbeisser schrieb:
Es geht dabei aber um die 1070 ti, welche technisch näher an der GTX1080 als an der GTX1070 dran ist, dafür schlägt sich die Vega56 recht gut.

Nochmal, es ging hier in diesem Test und in dem Test von Hardwareunboxed um Treiberverbesserungen, Fortschritte von FineWine, es hat sich nix getan!
Vega56 und GTX 1070Ti wurden auch damals verglichen mit dem genau gleichen Ergebnis wie heute!

Du und andere beschwerten sich hier lauthals hier würde auf AMD rumgeritten und stellten den Tester als Fankind hin und dieser Test bestätigt nochmals: Vega hat mit neuen Treibern gar ned zugelegt, auch ned zur Konkurrenz!

Nuff said!!

Der aufmerksame User hätte das von dem IPC Vergleich Fiji--> Vega schon ziemlich gut ableiten können.:daumen:
 
Zuletzt bearbeitet:
Ja die gute Märchenstunde.....die GTX1070 Ti kam mit Oktober 2017 erst 2 Monate nach den RX Vega und 3 Monate nach den Frontier Modellen.
Ich bin auf die Erkärung gespannt wie man damals damit hätte testen können.
 
Wenn interessiert heute noch die GTX 970, die ist schon lange EOL, Nvidia hat hier ganz klar die Leute beschissen, nicht nur was den Speicher betrifft, aber wie gesagt, interessiert heute keinen mehr und das die Leute die Karte nach Bekanntwerden des Betrugs weiterhin die Karte gekauft haben, wundert mich ehrlich gesagt nicht, neuestes Beispiel ist ja zb. VW, die haben nach den Bekanntwerden des Abgasskandals 2015 im Jahre 2017 die besten Verkaufszahlen ihrer Geschichte eingefahren.

In dieser Beziehung scheint der reale Verstand der Markentreue nicht Paroli bieten zu können, ich verstehe es zwar nicht, ist aber leider so und dies liese sich noch auf zig andere Produkte ausweiten.

Vega ist eine solide Karte, aber nun mal nicht der erhoffte Sprung den sich AMD wohl am meisten selbst gewünscht hat, wenn Turing oder wie auch immer die heißen mag im Sommer kommt, wird Vega nur noch über den Preis punkten können und Freesync, AMD Fans die darüber schimpfen, das Nvidia Freesync nicht unterstützt, sollten bedenken, daß es dann noch einen Grund weniger geben würde zu AMD zu greifen, daher kann ich den Ruf danach nicht verstehen, für die Kunden wäre es ohne Zweifel wünschenswert, für AMD eigentlich weniger.
 
  • Gefällt mir
Reaktionen: Gschwenni und Cpt.Willard
Wadenbeisser schrieb:
Ja die gute Märchenstunde.....die GTX1070 Ti kam mit Oktober 2017 erst 2 Monate nach den RX Vega und 3 Monate nach den Frontier Modellen.

Und was interessiert das, wenn es dort um einen Treibervergleich geht? Kriegt die 1070 etwa andere Treiber?
Da hat sich rein gar nichts geändert von der Leistung, das zeigt der CB Test noch am allerbesten.
An welchen Strohhalm klammerst du dich eigentlich noch?

Ja jeder hat erwartet dass Vega da nochmal zulegen kann auch im Vergleich zu Nvidia, wenigstens minimal.
Aber wenn die Preise stimmen würden, dann bräuchte man das doch auch gar nicht + Freesync.
 
Schweif schrieb:
Hier meinte jemand das man bei ner Vega für 200W nur 1200-1300Mhz bekommt. Dieses muss ich verneinen. Gibt für etwas weniger, sogar etwas mehr. ;)

Anhang anzeigen 685342

Das ist ja bei AMD immer so komisch angegeben mit dieser "ASIC POWER", die dann im endeffekt trotzdem nicht den stromverbrauch der ganzen Karte darstellt, etc...

Sind diese 175w jetzt nur die GPU, ohne Speicher / rest? Oder Asic power (gpu + speicher?!)? Oder die komplette Grafikkarte?
 
Das ist nua der Chip selber, der Rest von der Karte wird da ned angezeigt.
Sind also wohl 230 Watt oder so.
 
  • Gefällt mir
Reaktionen: Darkseth88
Hab bei #525 nochmal mit nem HWinfo nachgelegt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Darkseth88
@Blueline56
Also das nVidia Freesync unterstützen solle, das fordern hier sicher keine AMD Fans. Eher sind es User die lieber eine nVidia Karte hätten, aber nicht den Aufbreis bei Gsync zahlen wollen für einen neuen Monitor. ;)

Warum sollte auch jemand fordern, der eine AMD Karte hat oder haben will, das nVidia auch Freesync unterstützen solle. :freak:

Und du hast es richtig erkannt, Vega Karten sind absolut Grundsolide und haben ebenso genügend Leistung um genauso gut oder schlecht wie ihre nVidia Pendants Bilder auf den Monitor zu zaubern. Ob AMD mehr gewollt hat, das kann nur AMD bestätigen oder nicht.

Ich bin aber nicht der Meinung, das die neuen nVidia Gamingkarten schon im Sommer kommen. Ich gehe eher von Spätherbst oder gar Winteranfang aus. Einfach um so viele Pascal Karten noch verkaufen zu können wie möglich ist. Um dann bei erscheinen der neuen Generation so wenig GPUs im Abverkauf zu haben wie nur möglich. Und dank des Miningbooms und der erhöhten Preise durch die Händler und der schleichende Preisverfall dadurch, spielt es auch absolut nVidia wie auch AMD in die Hände. Zum Leidwesen der Käufer.
 
Zurück
Oben