Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

Ja, ganz schlimm diese Abwärme. AMD sollte man dafür gehörig die Meinung sagen ! NVIDIA hat zwar damit angefangen aber AMD muss mal wieder den Buhman spielen. 300 Watt sind ja so schrecklich und unverantwortlich, wie kann AMD nur so etwas machen ?
Auf die Customs der GTX1080Ti kommt allerdings mal wie üblich keiner hier zu sprechen.
Da ist von 250 Watt bis 384 Watt alles drin und keiner beschwert sich darüber.
http://www.pcgameshardware.de/Gefor...esigns-Taktraten-Kuehlung-Powerlimit-1223971/

Bei AMD ein absolutes NoGo, bei NVIDIA wieder OK. Typisch!
 
NeophyteH2O schrieb:
Hat doch nix mit "Cherrypicking" zutun sondern ist doch einfach nen natürlicher Vorgang bei Halbleitern.
Um so kühler um so niedriger der Stromverbrauch.

Aber die Temperatur untere Last ist doch 'nur' 3 bzw 4 Grad herunter gegangen. Das würde auch überhaupt nicht zu den normalen vs. max. Werten der Referenz 64 passen. Die sind schließlich annähernd gleich warm, haben aber einen 100 Watt unterschiedlichen Verbrauch.

@DarkerThanBlack: Bei der 1080Ti hast du aber auch die aktuell schnellste Grafikkarte am Markt als übertaktete Variante. Warte mal ab, was die entsprechenden Vega 64 Varianten verbrauchen werden. Fair ist eigentlich immer nur der Referenz vs. Referenz und OC vs. OC Vergleich.

Und wäre die Vega 64 bei maximiertem Power Target und entsprechend 400 Watt Verbrauch gleich schnell oder schneller als die 1080Ti OC Varianten, würde sich auch Niemand über den Verbrauch beschweren.
 
Zuletzt bearbeitet:
kumpert schrieb:
Eine schöne Antwort, der jedoch an dem Thema meines Beitrags vorbei geht und eigentlich fast sogar zu Whataboutism zählen könnte.

Die GTX 1000er-Serie ist - ohne wenn und aber - die bessere Grafikkarten Generation und der RX 5x0 und der Vega-Serie vorzuziehen. Sie ist unter DX11 deutschlich schneller, ist Energieeffizienter und Co.

Vega wiederum krankt an nicht fertigen Treibern - die Hardware ist mal wieder weit voraus - und in meinen Augen auch an einem schlecht gewählten Verhältnis von Shadern zu TAUs zu TMUs zu ROPs, was vermutlich auch einiges an Leistung kostet ... der Durchsatz an Pixeln und Co würde mich mal interessieren und wie das zu 1080 und 1080 TI aussieht.

Dennoch - und daran ändert dein Einwurf nichts - gibt es seit je her die Spezis, die immer behaupten AMD kaufen zu würden, es jedoch nie tun und dafür IMMER einen Grund finden ... ich würde jede Wette eingehen, dass beim nächsten mal wieder PhysX oder gar CUDA als Argument erhalten muss, wenn AMD wirklich ein konkurrenzfähiges Produkt auf den Markt bringt, weil ja die Leute dann hoch wissenschaftliche Berechnungen ausführen und KI-Wissenschaftler sind. (Echt, das Arguzment mit CUDA ist mir vor Jahren mal gebracht worden von jemanden, der mir bis heute entsprechende Projekte schuldig geblieben ist!)
 
Danke Computerbase für dises Preview.

Es geht sicher in die richtige Richtung, aber ihr seid ja ganz schön optimistisch .. weil bei jetzigem Preis (und die Asus wird sicher nicht günstiger) und Stromverbrauch ist die Karte keine Alternative zur 1080. :(
 
Beefsupreme schrieb:
selbst darüber, dass die vega 300 statt 200 watt braucht, könnte ich hinwegsehen. aber für 650€ aktuell und zwei spiele, die ich nicht haben will? nein, danke.

Ich sehe für eine Custom 64 ~550€ und eine Custom 56 ~450€ als bezahlbar. Die jetzigen Preise sind unangemessen.
 
Touchthemars schrieb:
mimimi am ende wurde doch eine 1080 (Ti). Mein Gott, seit Montag liest man hier 100000 mal den selben Beitrag.

Klar, was sollen die Leute auch machen die HighEndKarten wollen? Da muss man dann eine 1080Ti nehmen wenn man nicht schon einen FreeSync Monitor hat und das bessere Produkt will.
 
Touchthemars schrieb:
mimimi am ende wurde doch eine 1080 (Ti). Mein Gott, seit Montag liest man hier 100000 mal den selben Beitrag.

Teralios schrieb:
Was ihn wohl stört - und mich auch - ist, dass ein paar Pappnasen immer großspurig davon sprechen, sie würden ja AMD kaufen, wenn deren Produkte "gut" wären, was im Endeffekt jedoch einfach nur eine Alibibehauptung ist und sie so oder so zu nVidia oder Intel gegriffen hätten.

Ich hab auch so ein paar Spezis in meinem weiteren Bekanntenkreis und die Argumente sind im Endeffekt auch nur ein im Wind drehen, da sie IMMER einen Grund finden, der gegen AMD spricht. Als AMD die effizientesten GPUs hatte, war halt nVidia schneller. Als beide ungefähr gleich gut waren, war es PhysX, jetzt ist es halt die "Effizienz".

Und gerade die Effizienz ist für mich bisher der Gipfel an Unverschämtheit dieser Anti-AMD-Argumentation. Als AMD wirklich effizientere GPUs gefertigt hat war nämlich oft das Argument dann eben das besagte PhysX oder das ja die nVidia-Karten nen paar Prozent schneller sind usw.

Sehe ich - ganz persönlich - nicht so. Hatte mir damals 2 290X gekauft, da ich erstens ein sehr konkurrenzfähiges Produkt gesehen habe und das bisschen mehr Strom im Vergleich zu der 780TI hat mich auch nicht gejuckt. Ebenfalls fand ich die Vorstellung von Crossfire X und die großen Ankündigungen um Mantle und diesem True Audio (oder wie auch immer es hieß) toll. Freesync ohne Frage. Was ist am Ende draus geworden? Da eine Mantle Spiel was ich habe (Civilisation Beyond Earth) arbeitete zum Schluss gar nicht mehr fehlerfrei mit Mantle. Von True Audio hat man nichts mehr gehört. Und seit dem April Driver Branch lief Crossfire nicht mehr einwandfrei und zwar nicht nur bei den Hawaiis sondern laut den Foren auch bei Fiji-Besitzern. Reaktion AMDs: installiert mal Windows neu, sonst nichts.

Am Ende muss man sich irgendwo Luft machen und den Hersteller verstehen lassen: so nicht. Ich hab lange genug auf AMD gehofft. Selbst als die FE rausgekommen bin war ich davon überzeugt, dass der Wundertreiber alles noch raushauen wird. Nach der Siggraph hab ich mir dann aber die 1080TI gekauft. Und ja da bin ich sauer, weil ich mich wirklich hart verarscht vorkomme durch das Marketing. Das wäre alles absolut kein Ding gewesen, wenn man vorher ordentlich kommuniziert hätte, mit was man rechnen kann. Dann hätte ich mich vielleicht auch mit Vega anfreunden können, aber durch dieses Salamitaktik war die Fallhöhe bei der Enttäuschung einfach zu hoch. Und das finde ich muss auch gesagt werden dürfen.

Grimreaper666 schrieb:
Wenn ich also bei einer Vega 64, die nicht undervoltet ist, ca. 100W mehr verbrauche, dauert es zieeemlich lange, bis ich die 220 Euro Mehrkosten für die proprietäre G-Sync-Technologie mit einer GTX 1080 wieder reingeholt habe.
Außerdem zieht nVidia Euch das Geld aus der Tasche durch solche proprietären Technologien. Daher sollte man eher nVidia-Aktien kaufen, auch wenn die momentan recht teuer sind, wie ich finde. ;)

Steck da ja gerade mitten in der Thematik, da ich noch einen Freesync Monitor habe, aber nun eine GTX 1080TI. Ja, GSync-Monitore sind teurer. Bei weitem aber nicht so krass wie es immer dargestellt wird. Klar gibt es günstige Monitore bei denen dann Freesync als Feature dran geklatscht wird, aber wirklich vergleichbare Monitore sind preislich tatsächlich meistens gleich auf.

Außerdem sieht man doch in den Preis-/Leistungskurven auf CB eigentlich immer ganz schön, dass sich AMD und Nvidia nicht viel nehmen. Verstehe dieses ewig dummer Argument halt nicht mehr. Alles was sich geändert hatte, ist das Nvidia durch die Titan/x80TI nach oben hin eine neue Leistungsklasse eingeführt hat. Und der wirklich einzige ausreißer war die 1080FE, die mittlerweile aber auch wieder dort eingependelt wurde, wo sie hingehört. Eigentlich gibts da gar nichts zu meckern.
 
Zuletzt bearbeitet:
pietcux schrieb:
100 Watt mehr ist nicht nur teuer...

Bei 10 Stunden spielen sind das 30 Cent. Ja, das ist quasi unbezahlbar. Und ja, ich bezahle meinen Ökostrom selbst.
 
Zuletzt bearbeitet:
Naru schrieb:
Radeon ist und bleibt Plunder!

7 Jahre dabei, nur 22 Kommentare und dann ist dein Beitrag im Forum "Radeon ist und bleibt Plunder!".

Das wichtigste bei Vega ist Undervolten. Man senkt die Spannung und automatisch steigt der Takt der gehalten werden kann unter Last, somit eben auch die Leistung in Spielen. Daher @CB testet bitte auch UV und nicht nur OC.
 
@Naru: Dann werde glücklich mit deinem grünen, überteuerten Schrott und geh uns nicht auf die Nerven mit unbegründeten Quatschkommentaren ;-)

Ich bin schon ganz gespannt auf die Custom 56er Modelle, wie man sieht, können die noch einiges rausholen :-)
 
@Balikon

das wären bei manchem 110€ im jahr ;)
 
F4naTy schrieb:
7 Jahre dabei, nur 22 Kommentare und dann ist dein Beitrag im Forum "Radeon ist und bleibt Plunder!".

Das wichtigste bei Vega ist Undervolten. Man senkt die Spannung und automatisch steigt der Takt der gehalten werden kann unter Last, somit eben auch die Leistung in Spielen. Daher @CB testet bitte auch UV und nicht nur OC.

Sehr richtig. Der große Unterschied zur 1080 und 1080 Ti ist, dass man diese Karten MIT ebenfalls Undervolting einfach auf ca. 2GHz festtackern kann und Vega anschließend dagegen noch weniger Land mehr sieht. Weder bezüglich Leistung noch Verbrauch/Abwärme.

Diesen enormen Unterschied wollen hier einige offenbar nicht einsehen.
 
Testet bitte auch wieder den Verbrauch im Dual Monitor Betrieb - thx.
 
Wolfgang, woher kommt denn eigentlich das Ende September für andere Partnerkarten? Habt ihr mit anderen Board Partnern gesprochen?

Laut Pressemitteilung soll die Strix weltweit Anfang September rauskommen, steht sogar doppelt drinnen.

Bezieht sich das "Finale Partnerkarten Ende September im Test" also darauf, dass die anderen Partnerkarten erst Ende September verfügbar sind und daher erst Ende September ein Vergleich gemacht werden kann?
Oder hat sich die Strix verschoben von Anfang September auf Ende September und ihr nehmt an, dass andere Board Partner im selben Zeitraum ihre Versionen rausbringen?

Ein paar mehr Details dazu wären wünschenswert.
 
Das stimmt mich jetzt doch extrem positiv :) Wird schon langsam. Man muss es nur aussitzen können.
 
Bin auf den Preis gespannt, tippe auf ab 600€, bei dem massigen Kühler.
 
Wer sich in dem Bereich über den Verbrauch aufregt, hat keine Ahnung. Meine Ti verbraucht bestimmt 100Watt mehr, als so eine AMD Vega 64.

Mir gefällt die Vega, wenn man dann noch die besseren Treiber und FreeSync dazu nimmt, wäre das wohl die aktuell beste Karte auf dem Markt. Leider ist sie "zu gut", dass normal sterbliche sich diese Karte nicht leisten können.
Die Miner werden die Preise kaputt machen.
 
Galatian schrieb:
... Und das finde ich muss auch gesagt werden dürfen.
Und auch dieser Beitrag ist nichts weiteres als "Whataboutism". Entschuldige bitte, wenn ich das so direkt und auch klar schreibe.

Doch im Endeffekt versuchst du auch nur meine Aussage zu diskreditieren, in dem du "dich" als Gegenbeispiel anbringst und damit versuchst meine Aussage als "falsch" dar zustellen, zu relativieren, egal ob du damit gemeint bist oder nicht - in dem Fall bist du nicht gemeint gewesen, wieso auch?

Es gab und gibt immer die Spezis, die behaupten sie würden etwas tun, machen es dann aber aus zig Gründen doch nicht. Daran kannst du, ich oder andere auch nichts ändern.
 
AYAlf schrieb:
Meine Ti verbraucht bestimmt 100Watt mehr, als so eine AMD Vega 64.

Nicht wenn du sie nicht extrem übertaktet hast. Vermutlich brauchst du dazu aber flüssigen Stickstoff.
Unbenannt.PNG
 
Zuletzt bearbeitet:
Zurück
Oben