Test Radeon RX Vega 56 Nitro+ im Test: Sapphires 1,6-kg-Grafikkarte überzeugt auf ganzer Linie

Sieht nett aus, jedoch aufgrund des Chips zu wenig Leistung für den Stromverbrauch für uns Gamer. Die wird sicherlich noch im Preis nach oben gehen. Für das Mining sicherlich eine interessante Karte, welche für den Preis sicherlich weggehen wie die warmen Semmeln.
 
Da haben die Konstrukteure von Sapphire echt ganze Arbeit geleistet und wirklich alles mögliche getan um ne attraktive Karte zu bauen. Nun, das haben sie aus rein technischer Sicht sicherlich geschafft.
Sie haben auch gleichzeitig noch einmal beeindruckend gezeigt, dass die GPU schlicht und einfach nichts größeres mehr reißen kann. Zumindest in Sachen Gaming. Egal wie viel sinnvolle Hardware man drumherum baut. Egal wie groß, schwer und leistungsfähig der Kühler auch wird, und egal wie viele Stromstecker man noch dranlötet. ngesichts dessen was Sapphire da ver- und gebaut hat, ist dr Preis sogar nch ganz ok. Die Konkurrenz muss diesen Aufwand halt nicht treiben.

Ja, die Karte überzeugt auf ganzer Linie, die GPU aber immer noch nicht. Und wenn sie das bei diesen Voraussetzungen, die Sapphire geschaffen hat, nicht schafft, dann wirds auch nichts mehr.
 
Also für 299€ nehme ich sie, keinen Cent mehr.

Und das auch nur innerhalb der nächsten 6 Monate, dann sinkt der Betrag pro Monat um 15€.

Wir werden schon noch sehen wie schnell ich an meine Karte komme :D

Muss man alle 3 PCIe-Stromanschlüsse anschließen? Will dafür nicht extra ein neues Netzteil kaufen, 550W sollten für jedes Single-GPU-System ausreichend sein.
 
Jetzt wo ich so einen schönen Freesync Monitor besitze, AOC -Agon 32 Zöller- 144hz,werde ich bei meinem nächsten Pixelbeschleuniger kauf,das Lager mal wechseln...bin eigentlich seit 8 Jahren treuer Geforce Käufer,aber 250-300 Euro aufpreis für einen G-sync Monitor, ist mir der Spaß einfach nicht wert.
 
Interessant für einige (denen die Nitro+ mit RX Vega 56 Chip nicht genug ist) könnte auch Igors/Tom'sHardware Artikel zum großen Bruder, der Nitro+ von Sapphire mit RX Vega 64 Chip sein, wobei insbesondere die Treiberunterstützung/-leistungsvolatilität bei Schatten des Krieges ins Auge sticht, auch wenn von AMD/RTG vor kurzem bestritten wurde, dass noch viel Mehrleistung (per Treiberoptimierung) bei RX Vega GPUs verborgen liegen würde (vielleicht macht das auch zu viel Arbeit bzw. stimmt die Aufwand-Nutzen-Relation nicht?):

aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS82LzUvNzM2MzQ5L29yaWdpbmFsL01pZGRsZS1lYXJ0aC1TaGFkb3ctb2YtV2FyLUZQUy0yNTYweDE0NDAtSGlnaC5wbmc=


aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS82L0IvNzM2MzU1L29yaWdpbmFsL01pZGRsZS1lYXJ0aC1TaGFkb3ctb2YtV2FyLUZQUy0zODQweDIxNjAtTWVkaXVtLnBuZw==


Mit dem von Wolfgang/CB gezogenen Fazit, stehen sie allerdings nicht alleine, denn es ähnelt dem von Igor/Tom'sHardware, auch wenn das einigen "Experten" hier nicht schmecken mag ...

Es ist nichtsdestotrotz ein tolles Produkt, an dessen Preis von 679 Euro incl. MwSt. bzw. 659 USD (ohne Steuern) als unverbindliche Preisempfehlung sich wohl die Geister aktuell ein wenig scheiden werden, wobei es kaum an der Leistung liegen sollte. Deutlich billiger dürfte die Karte nämlich vorerst kaum werden, es sei denn, es gelingt den Markt überproportional vollzupumpen, was eher nicht zu erwarten sein dürfte.

Deshalb ist der Award auch eher als Würdigung der technischen Umsetzung durch Sapphire zu sehen und kein wirklicher Kauftipp durch uns. ...
Es steht allerdings auch nichts dagegen, das Geld für diese Karte auszugeben, wenn man denn zu den Glücklichen gehört, die überhaupt eine ergattern können.
 
Zuletzt bearbeitet:
Warum soll das Fazit nicht an der Leistung scheitern?! Für 700 gibt es direkt eine TI in einer ganz andere Leistungsregion. Da hilft auch die Würdigung des technischen Aufwandes nichts. P/L der Karten ist einfach katastrophal. Das ist wie eine Sportmedaille fürs mitmachen.


Marcel55 schrieb:
Wir werden schon noch sehen wie schnell ich an meine Karte komme :D

Könnte schneller gehen als du denkst. In der gleichen Zeitspanne die AMD von der Ref zu den Herstellerkarten gebraucht hat wird NV eine neue Gen bringen.
Mit dem dritten Stromanschluss scheint sich Saphire ja keine Freunde gemacht zu haben.
 
Zuletzt bearbeitet:
Den Preis finde ich ja gerade noch ok für dieses 'Eisenschwein' und ich bin durchaus auch ein Fan der Nitro-Karten. Aber drei 8-Pin PCIe Stecker habe ich einfach nicht.
 
irgendwie sehe ich keinen grund wieso ich diese karte einer nvidia vorziehen sollte ...
 
Volkimann schrieb:
Mal den Thread gelesen? Es reicht auch 2 Stecker anzuschließen.
Welcher Thread? Welcher Test?
Im Artikel steht explizit, dass alle drei Anschlüsse belegt sein müssen oder gibt's schon ein Artikel-Update?
 
@Moe

Genau das meinte ich mit meinem ersten Kommentar auf Seite 7. Man könnte glatt meinen das Internet und das Forum bestehen zu 50% nur noch aus Arschlöchern, Idioten, Trollen und Egoisten. Wobei das womöglich nur eine akkurate Depiktion der Gesellschaft sein könnte, aber daran mag und will ich einfach nicht glauben.
 
"Für dasselbe Geld bekommt man bereits ein gutes Exemplar einer GeForce GTX 1080, die am Ende das bessere Produkt ist."

".. und schon seit 1 1/2 Jahren auf dem Markt ist"
 
Endlich haben all die Jungs da draussen nen Argument für Ihre 1000 Watt + Netzteile!
Ich wollt noch auf Vega umrüsten.......
 
Volkimann schrieb:
Mal den Thread gelesen? Es reicht auch 2 Stecker anzuschließen.

Ich bin jetzt zwar nur ein Verfolger der ganzen Sachen was PC-Hardware angeht, da ich schon länger keinen mehr besitze und die letzten bearbeiteten nur SW-Probleme hatten.

Da in dem Test aber was von überarbeiteter Spannungsversorgung steht, denke ich mal müssen alle 3 dran sein damit die Karte die Belastung der einzelnen Anschlüsse senken kann. Würde ich jetzt mal vermuten. Müssen also eigentlich mehr Anschlüsse nicht gleichzusetzen sein mit höherem Grundverbrauch.

Rein dieser Theorie folgend könnte NV ja auch 3 Stöpsel auf ihre Karten klatschen, der Verbrauch würde dadurch vermutlich auch nicht ansteigen.
 
Schade Sapphire.. das Ding ist zu teuer. Und dreimal 8 Pin-Stecker? ne muss nicht sein..
 
Wie du im Test nachlesen kannst ist der dritte 8-Pin doch etwas unnötig. Theoretisch hat man halt mehr Übertaktungsspielraum ohne die PCIe-Spezifikationen zu verletzen, aber in der Realität juckt es wenig und da finde ich das umgedrehte Extrem wie z.B. zuletzt bei einer 295X2 deutlich schlimmer.
 
Leider nix Neues...
Sapphire kann immernoch echt gute Karten bauen und es ist immernoch verdammt schade, dass Sapphire keine NVidia-Karten baut...

Und Vega ist immernoch ein Compute-Chip, kein Gaming-Chip, man versucht ihn aber trotzdem an die Gaming-Kunden zu adressieren...

Warum? Weil man keine Alternativen hat... Mining? Verpöhnt, ist eine kleine und lukrative Zielgruppe, die Massen würden einen aber dafür hassen... HPC/Compute? Da lohnt sich Marketing nicht so großartig und man hat einen schweren Stand gegen das viel etabliertere NVidia.

Also versucht man den normalen Gaming-Markt zu adressieren und dort so viele Euros wie möglich herauszuquetschen, indem man großzügig mit Versprechen um sich wirft und auf Fans und Marketing setzt. Nur hoffentlich bemerken diese armen Trottel, die ihnen damit den Hintern retten nicht, dass AMD eigentlich gar nicht in ihrem Interesse entwickelt hat.

Ist genau dasselbe bei Ryzen... "with Gamers in Mind" etc... Blaaaa.
Ryzen ist von der Architektur her eine Server/Compute-CPU. Der Fokus liegt ganz klar auf Skalierbarkeit und Effizienz.
Das Einzige was wieder auf den Mainstream und Gamer ausgerichtet ist, ist das Marketing.

AMD versucht ganz klar da hin zu kommen, wo Intel und NVidia gerade dicke sind, nämlich in den Server- und HPC-Markt. Klappt auch gar nicht so schlecht, auf diesen Märkten dauern die Dinge etwas länger aber es tut sich schon ein Bisschen was. Die Produkte sind ja auch darauf ausgelegt.

Nur ist es so, dass Intel und NVidia einen Spagat zwischen diesen Bereichen halbwegs hinkriegen. Beide liefern in beiden Bereichen gute Produkte.
Intel muss mittlerweile zweigleisig fahren, weil für den Normalo-Markt bei wenigen Kernen der Ringbus besser performt, ihr neues Mesh aber für große Kernzahlen besser skaliert.
Auch NVidia entwickelt bzw. nutzt mittlerweile Chips mit abweichenden Schwerpunkten für unterschiedliche Bereiche.

AMD hingegen entwickelt eine CPU-Architektur, deren primäre Eigenschaft, nämlich die hohe und kosteneffiziente Skalierbarkeit, klar nur für einen der Beiden Bereiche nützlich ist und für den Anderen eher ungünstig ist.
Ähnlich sieht es bei Vega aus... Die Leistung ist voll auf Compute getrimmt... dann haut sogar die Effizienz hin.... Einige Features sind klare Compute-Features, so z.B. der HBCC. Da freut man sich über niedrige einstellige Mehrleistung in Spielen... im Compute-Bereich entstehen dadurch komplett neue Möglichkeiten bei den Programmiermodellen.

Ich kann da persönlich AMD nichtmal einen Vorwurf draus machen. Was Marketing angeht kotzt mich quasi jedes Unternehmen an. Werbung ist leider nunmal primär für dumme Menschen gemacht und folgt dem Prinzip "if it works and won't get us sued, it's perfect".
Was ich jedoch erschreckend finde ist, wie viele Menschen das einfach nicht sehen (wollen) und AMD dafür auch noch hypen und aus der Hand fressen... Und dann irgendwelchen Quatsch labern davon, wie blöde man doch sei, wenn man von Intel oder NVidia kauft, weil die einen ja "verarschen"... AMD jubelt euch auch nur Compute-Hardware unter und schreit so lange "Gaming!" bis ihr das glaubt...
 
@Hopsekäse
Marketing mag man gut oder schlecht finden, aber deine Schlussfolgerungen sind schon sehr einseitig, obwohl du viel richtiges sagst.

Auch wenn du jetzt viel geschrieben hast, ist das ja nicht die vollständige Sicht der Dinge und das ganze schon recht Komplex.
AMD hat explizit aus Kostengründen in diese Richtung entwickelt und der Ryzen lässt sich nun mal auch als Gaming-CPU verkaufen.
Ich persönlich bin sehr froh darüber, dass AMD aus diesem Rennen nicht ausgestiegen ist, obwohl man damals ja anderes verkündet hat.
Bei den GPUs mag die Ausrichtung derzeit teils Ihr Nachteil sein, aber dafür sparen sie bei der Entwicklung.
In vielen Bereichen hat AMD aber derzeit seinen Fuß drin, was ich gut finde. Speziell bei den APUs und Konsolen.

Die AMD Grakkas sind nicht erst seit Mining für hohe Rechenleistung bekannt. Leider ergo auch für den Stromverbrauch.

Ich sehe da eher bei Intel und Nvidia das Problem, da die genug Geld haben und teils Kundenverarsche betreiben. Nvidia hat vor einigen Jahren damit angefangen die eigenen GPUs zu beschneiden und dann als Gaming zu vermarkten, obwohl sie im eigenen Portfolio leistungsfähigere Karten hätten, bei denen man sich aber dann die Optimierung gespart hat. Das ist jetzt nicht so schlimm wie vor einiger Zeit, aber es war da. Man schaue sich nur die reine Rohleistung der Karten an. Nvidia optimiert dann halt speziell auf diese Karten per Treiber um sie als Gaming zu vermarkten. Mag ja funktionieren und im Vergleich zu AMD sogar intelligenter sein, aber wenn man den technischen Hintergrund versteht, ist es auch wieder eher naja...
Intel war ja so klug dann die damalige Spar-CPU Xeon, die lange auf normale Boards passte, dann mit Absicht zu sperren um mehr Kohle mit den anderen zu machen. Die Technik entwickelt sich eher zueinander, als voneinander weg.
Im Vergleich zu früher ist die Technologie recht ähnlich oder sogar die identische, wie man an dem Beispiel mit dem Xeon sieht. War im Prinzip ein i7 auf dem selben Sockel.
Ich sehe derzeit da nicht das Problem bei AMD, die können von Ihren Finanzen gar nicht viel anders agieren und Marketing ist Marketing. Ich sehe aber nicht, dass AMD da in irgendeiner Form gegen die Spielregeln verstößt oder irgendwas falsch macht. Es ist die richtige Ausrichtung. Auch da haben eher andere Hersteller was auf dem Kerbholz, siehe mal das Intel Inside Programm, mit den ganzen illegalen Geldtransfers.

Bezüglich Gaming sehe ich auch eher die Tastatur / Maus - Hersteller und andere Konsorten als Übeltäter, die totalen Plastik-Schrott für den doppelten Preis verkaufen, nur weil sie "gaming" drauf schreiben. Aber wie gesagt, Marketing ist ja nicht verboten.
Würden Spiele auf AMD signifikant schlechter laufen, wäre ja Kritik erlaubt, so ist das aber eher naja...
 
Zurück
Oben