Test Radeon RX Vega 64 Red Devil im Test: PowerColors Kühler bringt Vega zum Schweigen

immortuos schrieb:
Hier kannst du mit Customs vergleichen: https://www.youtube.com/watch?v=IeUyvEVB984
Ich bin echt begeistert wie die 980 Ti mit OC die 1070 fast durch die Bank nassmacht :D

Diese Erfahrungen habe ich auch gemacht.

Hatte in den letzten Jahren einige Grakas hier.
Gekauft, getestet, verkauft, etc..

Die 980ti war in den Benchmarks immer schneller als eine 1070.
Wie es allerdings mit ganz neuen Treibern aussieht, keine Ahnung.

Dabei war die 980ti immer mit 1400-1500 Mhz unterwegs. Die 1070 mit ca. 2000. Speicher auch immer +300-500, je nach Möglichkeit.

@Link:
Finde ich gut.
Zeigt mMn. dass zum Zocken alleine, die GTX 1080 das bessere "Paket" bietet. Ca. gleich schnell, mal schneller, mal langsamer. Ausreißer ist eindeutig Wolfenstein, aber das Game finde ich allein schon im CB Test relativ komisch. Von Patch zu Patch wird die 1080 hier langsamer. Im Worst Case Szenario stimmt auch etwas nicht, da war dann NV schneller usw..

Allein schon die ganzen Deals aus den letzten Wochen..wie eine Asus Strix 1080 + 2 Games um 500€. Da kann einfach keine Vega mithalten.

Wenn man allerdings die Grakas zum selben Preis kauft, ich weiß nicht, mein Gefühl sagt eher Vega 64 nehmen.
Aber da müssten die Vegas eben 500€ kosten als gute Custom Modelle. Dazu müsste man eben den höheren Stromverbrauch in Kauf nehmen.

Aber die Rohleistung der Vega ist eben höher und dementsprechend ist zukünftig mehr möglich.
Das Problem von Vega Customs ist, dass sie viel zu spät da sind --> Wenn die dann flächendeckend verfügbar sind und Angebote reingeschossen kommen, kommen schon die NV-Nachfolger und eine GTX 2060 (also 1060 Nachfolger) ist dann vor der Vega 64 und GTX 1080, oder zumindest auf deren Niveau..

Wechhe schrieb:
Natürlich - aber auch teurer und komplexer. Und der Preis ist ja bei den meisten Leute hier ein großer Faktor. AMD muss ja immer günstiger als NVIDIA/Intel sein.

Es gibt die Vega Liquid Cooled Edition mit einem AiO Wasserkühler (120er Radiator). Die ist ansich gut, der 120er Lüfter jedoch unter Volllast hörbar und die Karte relativ teuer.

Naja, AMD muss nicht günstiger sein.

Würde Vega die Leistung einer 1080 ti packen und gleich viel kosten, Stromverbrauch, Lautstärke etc. auch OK wäre es ein guter Konkurrent.

So ist es aber nicht.

Sie ist gleich schnell, oder mal schneller als die GTX 1080, oft lauter, teurer, verbraucht mehr Strom etc. Siehe mein Kommentar oben.

immortuos schrieb:
Blödsinn, kaum jemand nutzt mehr als 60 Hz. Die Zahl steigt zwar, aber deine Behauptung bleibt trotzdem noch lange Blödsinn.

Das stimmt. Die meisten nutzen immer noch 1080p/60hz.

Was mich ein wenig stört ist, dass die Leute ausgerechnet beim Monitor sparen. Bzw. es stört mich nicht, ich finds lustig und lächerlich ^^
Ihr Tower kostet aber mal gerne 2000€ mit ner 1080ti, 300+€ CPU etc.

Und dann verschenkt man so viel Potential beim Monitor, weil man den nächstgünstigsten nimmt.
 
Steini1990 schrieb:
Das keine UV Tests hier mit drin sind liegt möglicherweise daran weil der Verfasser um 4 Uhr Morgens doch einmal schlafen gehen wollte :D.


NO! :hammer_alt:
 
immortuos schrieb:
Hier kannst du mit Customs vergleichen: https://www.youtube.com/watch?v=IeUyvEVB984
Ich bin echt begeistert wie die 980 Ti mit OC die 1070 fast durch die Bank nassmacht :D

Naja, eine 980 Ti war (bevor dann der Abverkauf begann) auch deutlich teurer, als es selbst aktuell eine 1070 ist.
Da vergleichst Du gerade die falschen Karten.
 
CastorTransport schrieb:
Baut mir ne Vega 56 mit gutem Kühlsystem für 400€ und ich ersetze meine Referenz RX 56... (409€ einst)...

auf diese warte ich auch schon sehnsüchtig, eine 56er mit gescheiten Kühlkonzept wie meine trix
 
Caramelito schrieb:
Was mich ein wenig stört ist, dass die Leute ausgerechnet beim Monitor sparen. Bzw. es stört mich nicht, ich finds lustig und lächerlich ^^
Ihr Tower kostet aber mal gerne 2000€ mit ner 1080ti, 300+€ CPU etc.

Und dann verschenkt man so viel Potential beim Monitor, weil man den nächstgünstigsten nimmt.

Verstehe ich auch nicht, über 1000€ für den Rechner sind locker da, dann wollen sie aber am liebsten den 100€ Monitor mit grottigem Panel und keinerlei Ergonomie...
Ich bin jetzt zwar auch niemand der 1000€ für nen Monitor ausgibt, aber da ist wirklich am falschen Ende gespart.
Ergänzung ()

hamju63 schrieb:
Naja, eine 980 Ti war (bevor dann der Abverkauf begann) auch deutlich teurer, als es selbst aktuell eine 1070 ist.
Da vergleichst Du gerade die falschen Karten.

Im Abverkauf gab es sie dann aber oft genug für 300-350€, teilweise sogar für 280€ (z.B die AMP bei Amazon), da ist die 1070 mit 400€ ein Witz dagegen.
Und wenn man sie zum Launch gekauft hat, hatte man bis die 1070 dann mal kam auch schon lange Spaß mit der Karte.
 
Zuletzt bearbeitet:
1080p/60Hz ist aber nicht unbedingt eine Frage einer alten Monitor-Gurke... mein guter 3D TV von LG kann auch nur FullHD, hat dafür aber 47" ;-) und ja: ich hab mir auch 4K Geräte angeschaut, der Aufpreis war es mir dann aber nicht mehr wert.
 
immortuos schrieb:
Im Abverkauf gab es sie dann aber oft genug für 300€, teilweise sogar für 280€, da ist die 1070 mit 400€ ein Witz dagegen.
Und wenn man sie zum Launch gekauft hat, hatte man bis die 1070 dann mal kam auch schon lange Spaß mit der Karte.

Ich habe damals 2 Stück gekauft.

350€ + Spiel (GoW4) + Xbox 360 Gamepad.

Und einmal das Ganze um 320€ oder so.

Beide Male die Palit Jetstream beim Media Markt oder Saturn keine Ahnung mehr.

Das ganze Zeug habe ich je nach einigen Monaten Nutzung verkauft und mir dann weitere Modelle angesehen/getestet ^^

Also der Abverkauf war schon nice.

Bin echt gespannt, was die nächste Generation liefert. Inwiefern die neue 2080 dann zulegt, wie sich die 2070 verhält etc..
 
Jesterfox schrieb:
Und als ob man das am Desktop merken würde... hatte früher auch einen CRT mit 120Hz, aber am Desktop merkt man den Unterschied nicht wirklich (bei schnellen Spielen ist's was anderes)

Du siehst den Unterschied von 60hz zu 120hz am desktop nicht? Vielleicht solltest du mal zum Augenarzt gehen.

Der Ruckelige Mauszeiger und das ruckelige Fensterverschieben sieht man sofort....
 
Ich würde gerne mal eine Lanze brechen für die Tester (nicht nur CB). Was sollen die denn machen ? Undervolting, PT, Overclocking ? Ja kann man machen als Tester, aber für 20 Karten ? Ich würde behaupten das ist nicht der Fehler der Tester sondern der von AMD/Partnern, und wie geschrieben, ich besitze selbst eine Vega 56 also das ist kein nVidia-Fanboy-Bash.

Wieso setzen die dermaßen hohe Spannung an ? Mein HBM läuft mit 945 MHz bei 800 mV (werksseitig glaube ich waren das 900 mV bei einer Vega 56). Das dies wahrscheinlich nicht für alle Varianten möglich ist, ist klar aber man könnte ja theoretisch werksseitig bei um die 950 mV ansetzen ? Das gleiche gilt bei der Vega 56 für die P-States, P7 läuft werkseitig mit 1200 mv und P6 mit 1150 mV (wenn ich mich richtig erinner) bei mir laufen die mit 1030 und 1080 und das sehr stabil. Werksseitig 1050 und 1100 klingt da meiner Meinung nach vernünftig. Dafür hätten sie werksseitig das Powertarget erhöhen können und oh Wunder .... mehr Leistung bei vermutlich ähnlichem Powerdraw. Die ganze Vega Geschichte verstehe ich einfach nicht. Das sieht fast aus als würde sich AMD selbst sabotieren WOLLEN. Die müssen doch wissen, dass Tests in 99% der Fälle mit Stock-Settings gemacht werden.
 
Zuletzt bearbeitet:
Edelhamster schrieb:
2) Undervolting Möglichkeiten werden darüber hinaus im Test gar nicht angesprochen. Das gezogene Fazit bzgl. kaum vorhandenen Übertaktungs/Optimierungs-Potentials möchte ich daher mal hinterfragen!

Undervolting wäre IMO eher etwas für einen Optimierungsratgeber, aber nicht für einen Produkttest. Da sollte immer das getestet werden was in der Packung ist und dann auch genau so wie es vom Hersteller vorgesehen ist.
Es muss der kleinste gemeinsame Nenner getestet werden und nicht etwas was jeder individuell je nach Produktgüte selbst einstellen kann. Das hat dann keine allgemeine Aussagekraft.
 
estros schrieb:
Man sieht auch, dass AMD mit der 64 Variante vermutlich extrem ans Limit ging, um wenigstens etwas mit der 1080 mitzuhalten.

Das halte ich für groben Unfug. Wie ich bereits schrieb. AMD ging nicht ans Limit, die haben einfach komische Einstellungen verwendet. Schau dich mal auf Youtube um. Die meisten Leute die da Vega 56 oder 64 übertakten fangen mit Powertarget und undervolt an und haben schlagartig extreme Leistungssprünge!
Ich habe ein Video von JokerProductions gesehen, bei dem er nahe am Release Date einfach undervolt und Powertargeterhöhung bei einer Vega 56 macht und von 1390 MHz Core Clock auf 1560 MHz Core Clock springt. Sonst hat der NICHTS geändert!
Wenn ich mich richtig erinner sind dann sogar die Temperaturen bei ihm um 1-3 ° gesunken unter Volllast, aber das ist schon etwas her, dass ich das Video gesehen habe.

Von Seiten AMDs gibts dafür vllt. sogar noch ein paar Gründe:

- den Partnern mehr Platz lassen um eben dies zu tun
- die Befürchtung, dass man mit der Produktion nicht nachkommt und mit späteren Partner Karten so ein sanftes Anlaufen der Produktion ermöglichen

Aber von Seiten der Partner ? Etwas enttäuschend was man da so liesst.
 
Zuletzt bearbeitet:
nekro1 schrieb:
Der Ruckelige Mauszeiger und das ruckelige Fensterverschieben sieht man sofort....

Entweder fehlts mir an den sauerstofffreien bei Vollmond linksverdrillten Monitorkabeln um da sehen zu können oder ich bin halt einfach nicht so empfindlich und ignorier das weg... ist aber im Endeffekt auch egal, ich brauch am Desktop nicht mehr (und bei Spielen eigentlich auch nicht, auch wenn ich den Unterschied da bei schnellen Spielen durchaus sehe)
 
DocWindows schrieb:
Undervolting wäre IMO eher etwas für einen Optimierungsratgeber, aber nicht für einen Produkttest. Da sollte immer das getestet werden was in der Packung ist und dann auch genau so wie es vom Hersteller vorgesehen ist.

Du bist also kein Fan von OC in einem Test?
Gut, dass wir das auch (zum gefühlt 100. Mal) geklärt haben, ist aber halt eine blöde Ansicht.
 
Ap2000 schrieb:
Du bist also kein Fan von OC in einem Test?
Gut, dass wir das auch (zum gefühlt 100. Mal) geklärt haben, ist aber halt eine blöde Ansicht.

Gerade im CB Forum erwarte ich einen OC/UV Test.

Aber auch seit langem bei den NV-Karten. Dort wird UV (Curve) gar nicht genutzt z.B.

Und auch bei RX 480 und Vega ist UV fast schon pflicht, wenn man sich denn ein bisschen was zutraut.
 
DayMoe schrieb:
.....

Wieso setzen die dermaßen hohe Spannung an ? Mein HBM läuft mit 945 MHz bei 800 mV (werksseitig glaube ich waren das 900 mV bei einer Vega 56). Das dies wahrscheinlich nicht für alle Varianten möglich ist, ist klar aber man könnte ja theoretisch werksseitig bei um die 950 mV ansetzen ? Das gleiche gilt bei der Vega 56 für die P-States, P7 läuft werkseitig mit 1200 mv und P6 mit 1150 mV (wenn ich mich richtig erinner) bei mir laufen die mit 1030 und 1080 und das sehr stabil. Werksseitig 1050 und 1100 klingt da meiner Meinung nach vernünftig. Dafür hätten sie werksseitig das Powertarget erhöhen können und oh Wunder .... mehr Leistung bei vermutlich ähnlichem Powerdraw. Die ganze Vega Geschichte verstehe ich einfach nicht. Das sieht fast aus als würde sich AMD selbst sabotieren WOLLEN. Die müssen doch wissen, dass Tests in 99% der Fälle mit Stock-Settings gemacht werden.

Dein HBM wird ziemlich sicher nicht mit 0,8V laufen :p
Die HBM Spannung ist auf 1,35V fest. Du änderst lediglich die Minimum Spannung für die Karte. Der HBM ist aber nicht betroffen.

Allgemein ist die Chip Streuung bei Vega enorm, AMD wollte einfach nicht noch mehr Chips aussortieren.
 
Mordeos schrieb:
Steht doch im Artikel.
Die PowerColor Radeon RX Vega 64 Red Devil wird es in Deutschland ab Freitag vorerst ausschließlich bei Mindfactory für 559 Euro geben. Andere Shops sollen erst zu einem späteren Zeitpunkt folgen.

Kommt davon wenn man an den Benchmark-Balken hängen bleibt :D
Ich fange oft mit dem Fazit an
 
Caramelito schrieb:
Gerade im CB Forum erwarte ich einen OC/UV Test.

Aber auch seit langem bei den NV-Karten. Dort wird UV (Curve) gar nicht genutzt z.B.

Und auch bei RX 480 und Vega ist UV fast schon pflicht, wenn man sich denn ein bisschen was zutraut.

Geht wohl eher darum, dass man aus den Urzeiten der Hardware nur OC kennt.

Das aber bei Vega und der RX-Reihe nur eine ziemlich einseitige Perspektive ist.
Mit OC sieht Pascal schließlich schneller aus mit moderat höherem Verbrauch, wohingegen eine Vega oder RX 480 wesentlich mehr Verbrauchen und kaum schneller werden.


Zumindest mit einer Custom Karte, auf die wirklich alle gewartet haben, hätte man sich wenigstens die Mühe machen können, statt des Einseitigen OCs auch mal das UV testen zu können.
Mit dem Wattman hat sogar jeder AMD Nutzer die Möglichkeit das Sofort zu testen AB WERK.

Die Spannung um 50 mV abzusenken ist schließlich kein Hexenwerk sondern das eintippen einer (Zahl) -50 mV und ein klicken auf das Übernehmen Symbol.


Aber ich denke es war einfacher indem einfach alles maximiert keine Angaben zur Ab Werk Spannung macht und zu solch einem Resultat kommt:
Die dadurch entstehenden Nachteile sind jedoch enorm. Die Leistungsaufnahme steigt auf 375 Watt an, die Grafikkarte wird sehr laut. Schlussendlich lohnt sich manuelles Übertakten auf der PowerColor-Grafikkarte damit nicht.

So long....

Mit 50 mV weniger wären daraus wahrscheinlich 10-15% mehr Leistung geworden und nicht 6%... bei einem wesentlich geringeren Verbrauch als der welcher als Konsequenz des OC genannt werden....

Nichtmal im OC/UV Thread kommen die Leute auf solch einen Verbrauch, außer man legt es mit Gewalt darauf an.
 
Zuletzt bearbeitet:
Schade, dass ihr das Teil nicht auseinandergebaut habt und geschaut, ob RAM und Spawas an den Hauptkühlblock angeschlossen sind. Ich befürchte nämlich, dass die Zieltemperatur im OC-Modus nur so niedrig angesetzt ist, damit die Spawas ausreichend gekühlt werden.
 
Zuletzt bearbeitet:
Zurück
Oben