Test AMD Radeon RX Vega im Test: Mit neuen Treibern und Spielen gegen Fiji

AMD hatte ja auch gesagt, dass sie die dx11 Schwäche angehen wollen, da wäre ein offizieller Test auch mal wieder interessant...
 
BestinCase schrieb:
Ich rate in dem Preissegment zur RX 580. Warum?
- bessere Treiber
- FreeSync 4 Free (Kein Aufpreis bei Monitoren und bald bei TV)
- DX12, Vulkan stärker
- mehr RAM
- mittlerweile genau so schnell in DX11 wie eine GTX 1060.

Ich würde bei ähnlichem Preis auch die AMD nehmen, genau das hab ich getan.
Bessere Treiber kannst du aber definitiv streichen, die sind grad bei neuen Spielen ned besonders.
Du hast halt tolle Funktionen drinn wo du bei Nvidia den Afterburner brauchst.

O-Saft-Killer schrieb:
Yeep. Meine vega 64 hat ebenfalls keine Probleme mehr mit verstärktem CPU Limit in DX 11 zu meiner Titan X Maxwell.
In 4K? Weil drunter gibts immer wieda mal Probleme.
 
Gschwenni schrieb:
Die GTX 480 war auch als Eierbrutzler und Heizer bekannt und war verpöhnt, das war halt die R9 290x und 290 auch, außerdem extrem laut, wer kauft das also?:freak:

Nein aber das doppelte der 970 und da haben sich die Leute halt gefragt wieso sie sich sonen Stromfresser einbauen sollen. Das is unter anderem der Grund wieso Nvidia da mehr verkauft hat.


Und wen hatts interessiert? Die Karte ging weg wie geschnitten Brot.



Die konkurrierte halt genauso mit der 970 und 980, eben ein Jahr lang.
Und danach kamen die Karten mit der doppelten V-ram Menge, aber mit astronomischen Thermi-Verbrauch.


Kannste ja mit RPM vergleichen, theoretisch ein tolles Feature, nur bringts halt nix.
Wie viele Spiele nutzen den Async Compute? 5 oder 8?

Meinst du der Käufer interessiert sich für solche Un-Wichtigkeiten? Der schaut auf Leistung/Verbrauch und noch auf Freesync/Gsync und das wars.
Async compute...:D.. total wichtig. Genauso wie Directx12 ein totales Vollversagen wie halt vieles was AMD in die Hand nimmt. Mantle, True Audio.. *hust*.
Selbst schuld wenn sie die drarauf ablegen, wieviele derjenigen hatten sie aber auch gekauft und genutzt?

Bei der 970er....was nützt einem der geringere Strombedarf wenn die wegen der Speicher Krücke vorzeitig anfängt zu stottern bzw. wegen Speicher Mangel ganz wegbricht? Die Geschichte hat nur eines gezeigt, nämlich das der Großteil der Kunden sich mit falschen Daten veräppeln lässt und dafür auch noch Beifall klatscht, solange es sich um den Marktführer handelt.
Das sah man ja auch nachdem die Geschichte aufflog. Erst sollte es ein Kommunikationsproblem gewesen sein (nachdem die Karte schon seit Monaten auf dem Markt war...) und dann sollte es auf einmal ein Feature sein und wurde bis zum Ende nie in den technischen Daten eingeräumt. Da war auch weiterhin von einem 256 Bit Speicherinterface mit 4 GB die Rede.
Dein Spruch "Und wen hatts interessiert? Die Karte ging weg wie geschnitten Brot." sagt dazu im übrigen bereits alles.

Den Rest zu kommentieren ist ca. so sinnvoll wie der Farbe beim trocknen zuzusehen weshalb ich mich auf den Teil mit den neuen APIs beschränke. Ja die sind sehr sinnvoll weil endlich mal mit der API bedinkten ineffizienten Nutzung der Hardware aufgeräumt wurde und Mantle brachte dafür den Startschuss.
Mag sein das nvidia das bei ihren Treibern besser umschifft hatte aber das ändert nichts daran das der Grundaufbau von DX11 und Co. hoffnungslos veraltet war. Das man bei der gestiegenen Komplexität mit billigen, schrottigen Ports nicht weit kommt und das Potential erst ausschöpft wenn dafür programmiert wird wurde ja bei DX12 hinlänglich bewiesen.
Das dieser Punkt von dir auch noch schön geredet wird lässt erneut tief blicken denn ich will das meine Hardware effizient genutzt und auch ausgelastet wird ohne mich an einen bestimmten Hersteller zu binden.
Beruht bei einem Hersteller allerdings das Geschäftsmodell auf die Ineffiziente Nutzung der Konkurrenzprodukte dann landet er bei mir auf der "no go" Liste.
 
Wadenbeisser schrieb:
Bei der 970er....was nützt einem der geringere Strombedarf wenn die wegen der Speicher Krücke vorzeitig anfängt zu stottern bzw. wegen Speicher Mangel ganz wegbricht?

Da stottert nichts und es bricht auch nix weg, bis heute nicht.:)
Die haben das mit dem Treiber super im Griff. Damals gabs hier und da unter extrem auslastung mal ein Stottern. Das wurde aber gefixt.
Wadenbeisser schrieb:
Die Geschichte hat nur eines gezeigt, nämlich das der Großteil der Kunden sich mit falschen Daten veräppeln lässt und dafür auch noch Beifall klatscht, solange es sich um den Marktführer handelt.

Als ob das den Kunden interessiert hat, der sieht dass es gut läuft und das wars dann.
Eine günstige GTX 970 für 120 Euronen is immernoch ne gute AMD Alternative.
Wadenbeisser schrieb:
Dein Spruch "Und wen hatts interessiert? Die Karte ging weg wie geschnitten Brot." sagt dazu im übrigen bereits alles.

Ja so denken aber halt die Kunden. Es denkt nicht jeder so wie du das gerne hättest, ist dir das noch ned aufgefallen? Wieso haben die Leute trotzdem die 970 gekauft? Habs dir schon beantwortet gehabt.
Du bist halt mit der Realität unzufrieden. Die Karte war für den Preis halt trotzdem gut. Weniger Stromverbrauch, leise Karten, keine Backöfen und Durchlauferhitzer.

https://www.computerbase.de/2015-06...80-r7-370-test/3/#abschnitt_leistungsaufnahme

150 Watt mehr, genauso damals bei der GTX480.. da verzichten halt die Leute liebend gern drauf 8GB hin oder her, die sind bis heute für Full HD eh ned so wichtig.

Wieso haben die damals keine GTX 480 in Notebooks verbaut oder heute keine RX580?
Weil sie jede Menge Strom schlucken. Es gibt auch keine Vega56 in nem Notebook, GTX 1070 schon.

Wadenbeisser schrieb:
Ja die sind sehr sinnvoll weil endlich mal mit der API bedinkten ineffizienten Nutzung der Hardware aufgeräumt wurde und Mantle brachte dafür den Startschuss.

Startschuss... und dann stockt das wie alte Milch.
Wieso soll das wichtig sein, wenn doch überhaupt keine Spiele mit async compute usw. kommen?

Wadenbeisser schrieb:
Das dieser Punkt von dir auch noch schön geredet wird lässt erneut tief blicken denn ich will das meine Hardware effizient genutzt und auch ausgelastet wird ohne mich an einen bestimmten Hersteller zu binden.

Ohjemine ich sag einfach nur dass das keinen interessiert, weil halt keine Spiele davon auf dem Markt sind außer hier und da mal ein Tröpfchen.
Da ist überhaupt keine Wertung mit dabei, sondern einfach knallhart die Realität. Diese Jammerei jedes mal.
Wär doch genauso wenn keine Directx11 Spiele auf dem Markt wären, dann würde man doch AMD´s leicht bessere Leistung in Directx12 genauso als besser sehn, gibts aber halt einfach kaum. Und dieses Jahr kommen glaub ich 3 Directx12 Spiele raus...gegen 300 Directx11...
Wadenbeisser schrieb:
Beruht bei einem Hersteller allerdings das Geschäftsmodell auf die Ineffiziente Nutzung der Konkurrenzprodukte dann landet er bei mir auf der "no go" Liste.

Deine Meinung. Punkt. Das interessiert aber Gamer so viel wie wenn in China ein Sack Reis umfällt.
Ist das wirklich sooo schwer zu verstehen?
Und ineffiziente Nutzung, die gibts eher bei Vega und deren Sinnlos-Features die hinten und vorne nix bringen.
 
Zuletzt bearbeitet:
@Gschwenni

Erzähle keine Märchen, die Nummer ist ja erst aufgeflogen weil die 970er im Vergleich zur 980er eher angefangen hat zu stottern bzw. wie bei ausgehendem Grafikpeicher Nachladeruckler zu produzieren. Da gab es sogar hier bei Computerbase Tests zu. Der Treiber "umgeht" das seither indem er ums verrecken versucht die 3,5 GB Grenze nicht zu überschreiten, also nicht den ganzen vorhandenen und mit bezahlten Grafikspeicher zu nutzen.
Und natürlich bricht die Karte ein wenn der vorhandene Grafikspeicher überläuft, siehe das Gejammer um die Fury Karten und mal wieder ist es kein Problem wenn es um ein nvidia Produkt geht. :rolleyes:
Und mal wieder ist es schön zu sehen wie du dich selbst disqualifizierst indem du dich selbst widersprichst.
Erst soll die ineffiziente Nutzung der Hardware durch die alten APIs kein Problem sein weil es keine Spiele für die neuen APIs gibt, dann gibt es sie doch und werden für die Argumentation ignoriert.
Das du beim Thema Desktop Grafikkarten jetzt schon auf Laptops ausweichst, welche damit herzlich wenig zu tuen haben, sagt auch vieles über dich aus. Die Dinger sind ein komplett anderes Thema weil es da um den begrenzten Raum für die Kühlung, der Stromversorgung, das Gewicht und die Akku Laufzeit geht. Die Punkte sind für Desktop PCs abgesehen von Ausnahmefällen weitestgehend egal.

Zum Thema keine Vega56 in einem Notebook, guten Morgen:
https://www.computerbase.de/2018-05/acer-helios-500-amd-ryzen-rx-vega/
 
Gschwenni schrieb:
In 4K? Weil drunter gibts immer wieda mal Probleme.

Nee ich spiel in 1440p. Aber läuft soweit. Spiele größtenteils auf Mittel bis hohen Settings. zumindest geht das mit der Vega 64 in den meisten spielen jetzt wenn ich gleichzeitig 100 FPS + X haben will. Mit der Titan X Maxwell musste ich meistens fast alles auf Low stellen um das Ziel zu erreichen.

Denke mal zum größten Teil liegt es aber am neuen Prozessor das ich nicht mehr ins CPU Limit komme, war mit dem 3930K @ 4,5 GHZ mit der Titan X teilweise in vielen spielen unter 1440p auch schon ein Problem.

Erzähle keine Märchen, die Nummer ist ja erst aufgeflogen weil die 970er im Vergleich zur 980er eher angefangen hat zu stottern bzw. wie bei ausgehendem Grafikpeicher Nachladeruckler zu produzieren.

Stichwort Frametimes, die meisten werden das aber nicht direkt bemerkt haben. Viele werden sich wundern woher die stotterer herkommen. Das sind dann überwiegend die Leute die Fertig PCs kaufen und keine Ahnung von PC Hardware haben. Die denken sich dann heute die Grafikkarte ist zu langsam und kaufen sich eine neue, auch wenns am kastriertem Speicher und nicht an einer zu langsamen Grafikkarte liegt.
 
@O-Saft-Killer
Nicht unbedingt, solange der Füllstand des Grafikspeichers unter der Marke bleibt verhält sie sich wie jede ander auch aber sobald die letzten 512 MB auch genutzt werden und die GPU wegen der lahmen Anbindung auf die Daten warten muss sackt die Bildrate ab und der Bildfluss fängt an zu stottern und kommt dann ähnlich wie die Mikroruckler bei Multi GPU Configs rüber, sofern darin nicht wirklich wichtige Daten abgelegt wurden und die Bildrate richtig in den Keller geht. Nvidia versucht(e) das Problem per Treiber zu umschiffen aber sobald die Modelle darin nicht mehr gepflegt werden muss man wohl entweder auf den schwach angebundenen Bereich ganz verzichten oder der Effekt schlägt im Grenzbereich der Speicher Befüllung wieder voll durch.

Ich hatte mich damals noch gewundert warum sie von Anfang an vergleichsweise günstig angeboten wurde aber seither erschien die Preisgestaltung wieder logisch, weshalb ich davon ausgehe das es kein angebliches Kommunikationsproblem war sondern ein bekannter Nebeneffekt dieser Art der Resteverwertung der ganz einfach verschwiegen wurde. Was danach kam sehe ich deshalb nur als Marketing Geblubber und Leugnung zum Selbstschutz vor Schadensersatzforderungen an. Da es für nvidia keine ernsthaften Konsequenzen hatte bin ich gespannt wann die nächste Bombe platzt.

Zum Thema Titan X vs. Vega64, ich denke ebenfalls das es eher am CPU Update lag da kaum ein Spiel durch den mangelhaften Multicore Support die vorhandene Rechenleistung auslastet und es deshalb nur auf die Leistung der genutzten Kerne ankommt. Das Problem wurde zwar mit den neuen APIs angegangen aber wie man sieht ist das Interesse derzeit eher gering solange der User auch neue Hardware kaufen kann.
 
RYZ3N schrieb:
Bei den CPUs klappt’s doch auch ganz gut.
Auch hier hat man nicht die schnellste CPU am Mark, aber runde Produkte zu einem vernünftigen Preis und von den APUs angefangen bis zum Ryzen 2700X ein gutes Portfolio.

Man hat hier aber halt CPUs die mit den Topprodukten des Konkurrenten mithalten können. Werbewirksame Flaggschiffe. Das gilt für Desktop, Enthusiasten-Plattform und Server. Wo wäre man denn wenn man sich gedacht hätte dass bei CPUs auch Mittelklasse reicht?
Ryzen 2500 und das wars dann?
 
  • Gefällt mir
Reaktionen: Gschwenni
@@O-Saft-Killer
Nicht unbedingt, solange der Füllstand des Grafikspeichers unter der Marke bleibt verhält sie sich wie jede ander auch aber sobald die letzten 512 MB auch genutzt werden und die GPU wegen der lahmen Anbindung auf die Daten warten muss sackt die Bildrate ab und der Bildfluss fängt an zu stottern

Ja das stimmt. Allerdings werden die 4 GB bei aktuellen spielen auch in 1080p recht schnell erreicht.
 
aber der Treiber hat doch verhindert, bei der 970, dass die letzten 515MB genutzt wurden, war zumindest mal so, jetzt vll. nicht mehr.
 
DocWindows schrieb:
Man hat hier aber halt CPUs die mit den Topprodukten des Konkurrenten mithalten können. Werbewirksame Flaggschiffe. Das gilt für Desktop, Enthusiasten-Plattform und Server. Wo wäre man denn wenn man sich gedacht hätte dass bei CPUs auch Mittelklasse reicht?
Ryzen 2500 und das wars dann?

Nein, versteh mich nicht falsch - da bin ich ganz bei dir.

Ich finde AMD muss von der Einstiegsklasse bis hin zu High-End überall vertreten sein, auch bei den GPUs.

Ich meine nur, dass das nicht bedeuten muss das man nicht z.B. in Teilbereichen auch mal 10% hinter der Konkurrenz liegen darf, wenn man dafür ein rundes Produkt zum vernünftigen Preis anbietet.

Das die Lücke von der RX Vega 64 zur 1080Ti zu groß ist, darüber müssen wir nicht streiten.

Liebe Grüße
Sven
 
RYZ3N schrieb:
Ich meine nur, dass das nicht bedeuten muss das man nicht z.B. in Teilbereichen auch mal 10% hinter der Konkurrenz liegen darf, wenn man dafür ein rundes Produkt zum vernünftigen Preis anbietet.

Sag ich ja auch gar nicht. Ich sage einfach dass es keine Lösung ist, weder bei Grafikkarten noch bei CPUs, bei Mittelklasse Schluss zu machen und sich nur dort auf konkurrenzfähige Alternativprodukte zu beschränken. Denn dann fällt man aus dem Sichtfeld der großen Masse. Gründe hab ich ja schon genannt.
 
Moin,

diese ganzen Anfeindungen etc. bringen doch niemandem etwas. Alter Wein von gestern.
Wichtig ist das mit einer neuen Generation immer eine Leistungssteigerung mit einher kommt. Wie das nun zustande kommt Takt-/IPC- etc. steigerung ist doch fast egal.
Negativ anzukreiden ist bei sowas nur, wenn angekündigte Features nicht! abgeliefert werden.
Dort ist dann immer ein übler Beigeschmack mit bei, was da noch fehlen könnte.

Wichter war für mich eher, ob das extreme/stumpfe untertakten von nur P6 u. P7 per Wattman, nicht doch Einfluss auf das Ergebniss nimmt.
Habe zwar keine Fiji zum Vergleich, aber kann Wattmann mit nem File vergleichen. Ich denke/hoffe mal die kleine Differenz liegt im Rahmen der Messungenauigkeit. ;)
Verbrauchsmäßig kommt man aber etwas günstiger bei weg. ;) Ich denke mal auch in Bezug auf Fiji. :)

Tests wurden jeweils 3x mit neustart dazwischen wiederholt.
Karte ist eine RD64. oc-bios (260w+50%pt= ca max 390w möglicher Verbrauch) Also keine Pt-Limitierung

Das lasse ich mal fast unkommentiert von mir hier stehen. Ausser, jetzt weiß ich warum ihr nicht die eff mit einbezogen habt. Bzw hatte es mir schon gedacht.


Da man nichts oder wenig zu euren Wattmann einstellungen lesen kann bin ich mal so ran gegeangen.
Mit einem Wort---Übel---
Wattmann@CB.pngWattmann.png
Berichtigt mich wenn ich falsch liege

Richtig oder Fair wäre es ungefähr so gewesen(die Org Ptable in der Reg wurde durch eine neue ersetzt)
file@CB.png

Hat eine Weile gedauert das File so abzustimmen das die Karte im Windows erkannt und der Treiber geladen wurde.
Bei den States P0-P5 Takt sollte man beim Untertakten vorsichtig sein. Spannungsmäßig ist/liegt das an der unteren Grenze des machbaren
Im Endeffekt bin ich bis jetzt bei 1096 Mhz gelandet. Weniger würde zwar wohl noch gehen, aber die Zeit Spar ich mir.
Habe aber nur TS genutzt, da mich das abstimmen der Karte seit der Früh beschäftigt hat.

Hier meinte jemand das man bei ner Vega für 200W nur 1200-1300Mhz bekommt. Dieses muss ich verneinen. Gibt für etwas weniger, sogar etwas mehr. ;)

175w@1477Mhz.png

Im Endeffekt soll halt jeder das kaufen was er möchte. Solange eine Beratung neutral von statten geht und auf die Wünsche eingegangen wird.

Leben und leben lassen.

Grüße

Edit: Bin offen für alles, mit mir kann man reden, bin Kritikfähig und solang man mich nicht beleidigt oder dergleichen sehr umgänglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Weedlord, SVΞN und BestinCase
@Schweif

Sehr anschaulich, danke vielmals, bestätigt doch genau das was ich zu Beginn dieser Diskussion gesagt habe.

Vega kann mit ein paar Handgriffen optimal eingestellt werden und brauch sich dann nicht mehr zu verstecken!
 
Gern. :)
Das stört mich an den "Seiten" am meisten, "Das stumpfe reinklopfen von werten in Wattman"

Hier brauch auch keiner ankommen von wegen Fanboy oder so. Bin weder Grün noch Rot, nur zur Zeit ist mir AMD Sympatischer.
 
Die Vega 64 taktet immer genau zwischen dem PT6 und PT7 jenachdem ob das Powerlimit erreicht ist oder nicht.

https://www.3dmark.com/3dm/26904564?

konstant 1000 MHZ.PNG


Bitte sehr, ein Benchmark mit nachweislich 1000/1000 MHZ. Damit könnte man dann mit einer Fury die Konstant 1000 MHZ hällt vergleichen.

Zugegeben das sind jetzt so ca. 1015 MHZ, aber denke damit kann man grob was anfangen.^^

Das hier wäre ein Score mit max Leistung die mit meiner Karte geht: https://www.3dmark.com/3dm/26904459?

1600/1000 MHZ konstant

firestrike ultra 4k 30 % pt.PNG
 
Richtig O-Saft-Killer,
in Benchmarks ist sehr stark davon auszugehen das die Karte dauerhaft P7 hält. Anders verhält sich das in Spielen.
Verändert/Optimiert man wenig in Wattman kann man das in fast jedem Game verwenden.
Schlägt man da über/unter die Strenge darf man nen Profil für jedes Spiel anlegen um dauerhaft P6-P7 zu halten.
So auch hier bei dem Test auf CB, wo jedesmal angepasst werden musste.

Grüße
 
Also mein Profil funktioniert in jedem Spiel perfekt bei 99 % GPU Auslastung. Overwatch Season Verlauf:

https://www.computerbase.de/forum/t...ark-2011-zu-wenig-punkte.290918/post-21370216

Habs halt so optimiert das der Takt mit meinen EInstellungen an sich immer gehalten werden kann. Ausnahme dürfte Furmark sein. Denke da dürfte der Takt aufgrund von Powerlimit hart zusammenbrechen. Werde ich später evtl. mal ausprobieren.
 
@O-Saft_k

Das bezweifle ich absolut nicht. Sieht sehr angenehm aus. Und selbst wenn du mal nicht in P6 o P7 bist wirst du keine Nachteile haben.

Anzumerken sei nur das du mit deinen 950mV auf HBM State 3 nich mehr wie 1020 Mhz HBM fahren kannst. Willst du mehr als 1020 Mhz HBM wirst du unweigerlich bei 800 Mhz HBM(State2) hängen bleiben.

Solang dich der Verbrauch von(ich denke mal) ca 300w nicht stört ist alles ok. Obwohl man da wohl ca noch 50w sparpotenzial bei ca gleichem takt über Wattmann hätte. ;)

Grüße
 
Müsste ich mal mehr tweaken, aber ja aktuell hab ich um die 300 Watt durchfluss. Denke mal ich müsste die Spannung absenken um 50 Watt einzusparen oder muss ich dafür mit dem PT runter?

Jetzt verstehe ich warum der HBM bei mehr Takt auf 800 MHZ abfällt. Danke für den Hinweis.
 
Zurück
Oben