Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

Schattenthron schrieb:
PC Spielen ist immer noch ein Hobby und diese 70 bis 100 Watt Stromverbrauch jetzt soo aufzublasen ist eig. lächerlich, wenn ihr es mit den Ausgaben für eure anderen Hobbys vergleicht!

Ich finde dieses Argument, was immer wieder gebracht wird, hört sich so an:
"Mein Backofen ist sehr ineffizient, aber ich kann mir auch noch nen ineffizienten Kühlschrank kaufen, dafür benutze ich den Backofen einfach seltener"


Klar kann ich mir die Vega holen und klar könnte ich die 50€ im Jahr wieder reinholen, wenn ich dafür mal 2 Wochenenden mehr zuhause bleibe.

Ich könnte aber auch einfach ne 1080 holen, die gleiche Leistung haben, im Sommer ein kühleres Zimmer haben und trotzdem an besagten 2 Wochenenden was unternehmen.



Wenn hier mit Unvervolting ect. beim Stromverbrauch für Vega argumentiert wird, heißt es doch sofort, das könne man ja bei Nvidia auch tun und dann ist der Unterschied wieder gleich.

Dann kann ich genau so gut sagen, die Einsparungen in anderen Bereichen könnt ihr auch mit ner Nvidia machen und dann sind die 50€ Mehrkosten für AMD auch wieder da.


Und auch ohne dass man die 50€ unbedingt wieder irgendwo einsparen müsste(was bei keinem der Fall sein sollte, der sich solche Karten kauft). Diese 50€ könnte ich zwar locker mehr bezahlen, aber wenn ich die Wahl habe, gebe ich sie doch tausend Mal lieber für sinnvolleres aus, als Strom.
 
Zuletzt bearbeitet:
Zum Stromverbrauch: Ich pers. finde, dass das schon ein Argument sein kann, aber nicht unbedingt muss. Weil wer im Sommer zocken will, ist oft schon ganz froh, dass die Karte nicht soviel Wärme produziert. Und bei aktueller Preislage würde mir nicht in den Sinn kommen, Vega zu empfehlen.

Zur Asus: Auf alle Fälle sehr gelungen. Der Preis wird halt Asus typisch wieder übers Ziel hinausschießen. Mit der Asus 1080 würd ich die aber nicht unbedingt vergleichen, die hatte ja noch die zurecht kritisierte Direct-CU "Technologie".

Gibts bezgl. Vega schon VR Tests usw.? Beim Pascal Release wurde ja noch groß mit neuen Techniken wie Simultaneous Multi-Projection und solchen Geschichten geworben. Zu Vega finde ich da nicht wirklich was:confused_alt:
 
VR wäre momentan auch für mich das einzige, wozu ich mir wirklich ne stärkere Karte als die 980 wünschen würde, möglichst doppelt so schnell, damit ich auch mit 2fach Supersampling noch die gleiche Leistung habe wie jetzt. Dafür kommt aber bisher nur die 1080Ti in Frage
 
Verbraucht zuviel Strom!
Darauf kommt es nicht an!

Woran erinnert mich das nur?
Ach ja, das hatten wir schon bei Nvidias Fermi - nur mit ausgetauschten Rollen... :evillol:
 
@Köf3

Lese hier schon ne ganze weile mit, meist sind ja wirklich viele User hier, von dene man echt was lernen kann.

Aber dieses ganze geheule ist echt der Hit.

Klar haben viele Recht, das Ding hat echt Stromdurst.
Klar, könnte se schneller sein.

Glaube aber, das selbst ne 1080 nicht so stark Performte zum Release wie jetzt.

Mag mich aber irren, und vor allem jetzt keine neue OT Diskussion eröffnen.

Trotzdem ist das schon echt krass, was hier einige rechnen mit verbrauch.....
als würde so ne Karte zu 100% Im Powerlimit laufen.....von anfang bis ende.....
Dann rechnen se nen Verbrauch von Vega...,was das in 2 Jahren heisst, das dann ne ti billiger ist.....
Allerdings vergessen se bei ihrer Einsteinchen Formel, das die ti in der Zeit auch Strom brauch......

aber man redet sich halt immer halb blind alles schön....
Ich hab ne Amd rx 480
mir reichts
mit nem i5 6600k

mein Sohn ne 1070. mit nem Fx 8350.

ergo.
Hersteller is mir wurst
Der Geldbeutel muss es in dem moment stemmen können, WENN ich es brauch..........

aber jedem seins.


da im tv nur Müll kommt, ist es ganz amüsant hier mitzulesen.

Zumindest geht die Zeit rum! :-)
 
Schattenthron schrieb:
PC Spielen ist immer noch ein Hobby und diese 70 bis 100 Watt Stromverbrauch jetzt soo aufzublasen ist eig. lächerlich, wenn ihr es mit den Ausgaben für eure anderen Hobbys vergleicht!

Was mich an dieser missglückten Veröffentlichung aber mit am meißten ankotzt, nach all der Warterei und Hinhalterei kommen jetzt erstmal nur diese "schlechten" Werkskarten. Also Weiterwarten..... und einem scheinbaren Exklusivdeal mit Asus, wo ein Hersteller, welcher nicht mal AMD-only-Verkäufer ist einige Wochen Vorsprung bekommt.

Also nochmals weiterwarten bis es dann auch Partnermodelle von Powercolour, Sapphire und dem ganzen Rest gibt...

Es sind nicht 100 Watt, es sind über 300 Watt. Somit 100 Watt MEHR gegenüber einer 1080.


Das ist wie bei Motoren, nehmen wir mal einen Staubsauger, da wurde früher immer mit "Hammerleistung, satte 2000 Watt" geworben. Aus einem großen Motor viel Saugleistung rauszuhohlen, ist aber mal wahrlich keine deutsche Ingenieursleistung. Aus einem 100 Watt Motor die gleiche Saugleistung zu bekommen wie bei einem 2000 Watt, DAS ist eine Leistung.

Genauso verhält es sich in jedem anderen Elektrogerät. Viel Strom, viele Leistung = kein Problem.
Geringer Strom, hohe Leistung = Das ist die Kunst!

In Zeiten von Stromtrassen Diskussionen und Abwanderung auf erneuerbaren Energien, sollte man sich darüber mittlerweile leider Gedanken machen.
Der Mensch macht es sich halt leider immer selber schwer. Wenn eine Technologie gerade am Höhepunkte der Entwicklung ist (Atomkraft, Diesel usw.) dann kommt jemand und sagt, ach wir brauchen mal was neues und fangen bei Effizienz und Preis/Leistung mal eben bei 0 an. Der Bürger wird es schon zahlen.
 
Die Lautstärke bei der Referenz... unklar, wie man solch einen Müll auf den Markt werfen kann.

Seit Jahren (seit der 770 GTX) warte und hoffe ich darauf, wieder mal eine gute AMD (High-End) Karte im System verbauen zu können. Ich glaub da hoffe ich vergebens.
 
raceroomplayer schrieb:
Glaube aber, das selbst ne 1080 nicht so stark Performte zum Release wie jetzt.

Das ist leider schwer festzustellen, da die Testszenen und die restliche Hardware sich ja auch immer ändert. Geht man nach dem 1080 Release Test von CB und vergleicht die avg FPS z.B. in Witcher 3 4K, dann hatte sie zu Release 45,5 und heute nur noch 34,3.

Prozentual fällt aber z.B. auf, dass der Abstand zwischen der Fury X und der 1080 bei 26% lag, und heute bei 37% liegt.
 
Zuletzt bearbeitet:
Der Stromverbrauch ist relativ. Aber das Ding produziert mehr Abwärme als eine 1080. Und das ist mir nicht egal. Die Wärme verschwindet nicht einfach so. Und eine Referenzkarte ist keine Lösung, weil sie bei Belastung unerträglich laut wird.

Nvidia würde es ja schon reichen, wenn sie einfach einen Pascal Refresh in 12nm FinFET bringen im Frühjahr 2018.
 
SKu schrieb:
Der Stromverbrauch ist relativ. Aber das Ding produziert mehr Abwärme als eine 1080. Und das ist mir nicht egal. Die Wärme verschwindet nicht einfach so. Und eine Referenzkarte ist keine Lösung, weil sie bei Belastung unerträglich laut wird.

Nvidia würde es ja schon reichen, wenn sie einfach einen Pascal Refresh in 12nm FinFET bringen im Frühjahr 2018.

Wakü mit Radiator der nicht am oder im Gehäuse ist, sondern durch die Wand 2 Meter weiter abseits, Zack ist die Hitze weg :-)
 
SKu schrieb:
Nvidia würde es ja schon reichen, wenn sie einfach einen Pascal Refresh in 12nm FinFET bringen im Frühjahr 2018.

Ich meine gelesen zu haben, dass es keinen Pascal-Refresh geben wird, aber vor 2018 ist nicht mit Volta für den Consumer zu rechnen.

War aber auch zu erwarten, die 1080 Ti soll etwa 9 Monate die schnellste bezahlbare Gaming-Karte bleiben, wie zuvor die 1080.

Ich rechne ab Februar 2018 mit GV104.
Ergänzung ()

Biocid schrieb:
Wakü mit Radiator der nicht am oder im Gehäuse ist, sondern durch die Wand 2 Meter weiter abseits, Zack ist die Hitze weg :-)

So wie hier? Bloß da wurde es ins Extreme getrieben. :D
Mehrere PCs in einem Raum, alle in einem Kühlkreislauf, mit riesigem Radiator außen am Haus
https://youtu.be/ZBKBvhRcdb0?t=4m13s
 
Zuletzt bearbeitet:
Hallo zusammen,

@ AMD-Mafiosi & JaKno & MichaelJosef & Schattenthron

Das bedeutet wenn du jeden Tag 3 Stunden spielst und die komplette Zeit über die Karte voll auslastest kostet sie dich 30 Euro mehr im Jahr.... Wer sich eine Grafikkarte für 600€ kauft der hat auch das Geld 30€ mehr im Jahr zu bezahlen.

Nur mal meine Wenigkeit als Beispiel. Ich kaufe strikt nach dem Preis- / Leistungsverhältnis, in Relation zur Effizienz und Stromverbrauch. Und zwar immer schon. Ich hatte mehr AMD / ATI GPU`s - CPU`s sowieso - als Nvidia GPU`s. Von der ATI 9500 zur 9800 XT, Nvidia 8800 GTX 640 und jetzig die Radeon 5850 die ich seit langer Zeit schaue, wie ich sie ins Rentenalter schicke und ich habe extra auf Vega gewartet übrigens. Und komm mir bitte keiner, ich wäre dieser oder jener Fanboygruppe angehörig. Ich bin niemandes Fanboy und werde ich auch niemals werden.

Nun zu dem o. a. Einlaß. Ich spiele bevorzugt Rollenspiele. Bei Rollenspielen wie Wasteland 2 oder Witcher 3 verliere ich mich geradezu. Da merke ich gar nicht, wie die Zeit vergeht. Nur mal als Paradebeispiel, da ich dieses gerade absolviert habe. Und da waren 5 Stunden nicht Selten, die ich gespielt habe.

Ich behalte meine Grafikkarten relativ lange. Die 8800 GTS 640 hatte ich von 2007 bis 2011. Die jetzige Radeon 5850 seit 2011. Und wenn Karte X 100 Watt mehr Strom als der Mitkonkurrent Respektive ähnlichem Performanceniveau zieht, schlägt sich das in einer hübschen Summe nieder, wenn man mal die Laufzeit beachtet, wie lange ich eine Karte behalte.

Aktuell bei der Vega gegenüber einer GTX 1080 bei einer Laufzeit von 4 Jahren - wohlgemerkt meine Radeon habe ich ja noch länger - sind das ca. 120 - 150 €. Eher 150 € da nämlich der Strompreis eher steigt, was ja hoffentlich niemand abstreitet. Ich spare also einen solchen Betrag über eine solche Laufzeit dann, wenn ich die Karte nehme, welche ca. 100 Watt weniger Strom verbraucht.

Und wovon gar nicht die Rede ist. Ein solcher Stromverbrauch schlägt sich ja auch nicht nur in den Stromkosten nieder. Sondern auch in Abwärme, die zum einen aus dem Gehäuse geführt werden muß. Gleichbedeutend damit, daß eine solche Karte auch aufgrund des Bedarfs einer aufwendigeren Kühllösung auch Teurer zu Buche Schlagen dürfte. Nicht einberechnet ist der Fakt, daß bei manchem aufgrund des erhöhten Strombedarfs gleich noch ein Neues Netzteil veranschlagt werden muß.

Die hier getestete Asus Strix wird sich mit Sicherheit eher auf 700 € Plus X zu Bewegen. Nehmen wir mal eine richtig gute GTX 1080 Custom-Lösung, die MSI GeForce GTX 1080 Gaming X 8G, 8GB GDDR5X, die ca. 590 € kostet Aktuell. Die Vega 64 Custom ist also nochmal ein gutes Stück teurer als eine GTX 1080 Custom, von der es auch Modelle zu 499 € sogar gibt. Vega ist also deutlich Teurer in der Anschaffung und durch den Stromverbrauch werde ich auch noch um eine hübsche Summe zusätzlich erleichtert gegenüber dem Mit-Wettbewerber.

Alles in allem werden die Argumente für die Vega 64 eher weniger, als mehr. Wenn ich sehe, wie es der RX 480 ergangen ist, lasse ich auch die wiederkehrende Hoffnung nicht gelten, es würde noch Optimiert etc. etc.. Diese Argumente gab es nämlich nicht nur da zuhauf, sie wurden auch genauso zur Rechtfertigung angeführt. Das Argumentationsschema wiederholt sich geradezu haargenau. In der heutigen Zeit darf erwartet werden, daß eine Karte nicht ca. 100 Watt mehr Strom zieht, als ein Mitbewerber auf ähnlichem Performanceniveau. Eigentlich nicht verständlich, daß AMD nicht wie bei Ryzen endlich die richtigen Lehren ziehen kann.

Am Ende ist es natürlich wie üblich eine Abwägungssache. Keine Frage. Je nach Abwägung ist Vega kein Komplettreinfall. Und der Mining-Boom rettet Gottseidank viel für AMD. Persönlich ärgere ich mich aber nun, auf Vega gewartet zu haben. Denn die Preise einer für mich in Frage kommenden GTX 1060 / GTX 1070 sind deutlich nach Oben gegangen.

So long....
 
Zuletzt bearbeitet:
digitalangel18 schrieb:
Das ist richtig, aber warum sollte man das technisch hinterher hinkende Produkt kaufen, wenns eine gleichteure bessere Alternative (vor allem die schon seit einer ganzen Weile) gibt? Die Karte ist quasi unnütz am Markt. Ist doch enttäuschend für ein neues Produkt.

Der Stromverbrauch ist eigentlich der einzige Aspekt, der gegen die Karte spricht. Es gibt auch gute Gründe für Vega:
+hohe Rohleistung
+Freesync
+einige Features sind anscheinend noch nicht aktiv (man kann also auf einen Leistungsgewinn hoffen)
+Wattman

Deshalb finde ich die Karte nicht unnütz am Markt. Die Karte wird eben die Käufer finden, die diese Aspekte höher bewerten als den Stromverbrauch. :)
 
Biocid schrieb:
Es sind nicht 100 Watt, es sind über 300 Watt. Somit 100 Watt MEHR gegenüber einer 1080.


Das ist wie bei Motoren, nehmen wir mal einen Staubsauger, da wurde früher immer mit "Hammerleistung, satte 2000 Watt" geworben. Aus einem großen Motor viel Saugleistung rauszuhohlen, ist aber mal wahrlich keine deutsche Ingenieursleistung. Aus einem 100 Watt Motor die gleiche Saugleistung zu bekommen wie bei einem 2000 Watt, DAS ist eine Leistung.

Genauso verhält es sich in jedem anderen Elektrogerät. Viel Strom, viele Leistung = kein Problem.
Geringer Strom, hohe Leistung = Das ist die Kunst!

In Zeiten von Stromtrassen Diskussionen und Abwanderung auf erneuerbaren Energien, sollte man sich darüber mittlerweile leider Gedanken machen.
Der Mensch macht es sich halt leider immer selber schwer. Wenn eine Technologie gerade am Höhepunkte der Entwicklung ist (Atomkraft, Diesel usw.) dann kommt jemand und sagt, ach wir brauchen mal was neues und fangen bei Effizienz und Preis/Leistung mal eben bei 0 an. Der Bürger wird es schon zahlen.

Ich finde deine Einstellung sehr löblich! Damit da aber ein Schuh und kein Sturm im Wasserglas draus wird, sind die Relationen wichtig.

Wir diskutieren hier ja über 100 Watt Mehrleistung was einem Mehrumsatz von 100 Joule/Sekunde entspricht. Eine Stunde sind dann dementsprechend 360.000 Joule oder eben 360 Kilojoule. Bei einer 3D-Nutzung von zwei Stunden am Tag wären das 262.800 Kilojoule bzw. 262,8 Megajoule.

Das entspricht dem Brennwert von 5,788 kg Diesel, was etwa 6,891 Liter entspricht*. Das ist natürlich schade, hat aber hat bei weitem nicht die Tragweite, wie hier suggeriert wird. Aus Umweltschutzgründen eine nVidea-Karte zu kaufen hätte dann lediglich die gleiche positive Wirkung auf das Klima, wie der Verzicht auf 382 Gramm Rindfleisch.

Quelle 1

Quelle 2

* Ich erspare uns jetzt den Teil, in dem ich das in Flugkilometer umrechne...
 
Zuletzt bearbeitet:
Teralios schrieb:
Und gerade die Effizienz ist für mich bisher der Gipfel an Unverschämtheit dieser Anti-AMD-Argumentation. Als AMD wirklich effizientere GPUs gefertigt hat war nämlich oft das Argument dann eben das besagte PhysX oder das ja die nVidia-Karten nen paar Prozent schneller sind usw.

Wann war das denn? Meine 850xt, 1950xt, 5870, 7970, erzählen mir da etwas anderes. AMD hatte bei diesen Modellen lediglich im Preis-/Leistungsverhältnis die Nase vorne, aber effizient?
 
DarkerThanBlack schrieb:
Ja, ganz schlimm diese Abwärme. AMD sollte man dafür gehörig die Meinung sagen ! NVIDIA hat zwar damit angefangen aber AMD muss mal wieder den Buhman spielen. 300 Watt sind ja so schrecklich und unverantwortlich, wie kann AMD nur so etwas machen ?
Auf die Customs der GTX1080Ti kommt allerdings mal wie üblich keiner hier zu sprechen.
Da ist von 250 Watt bis 384 Watt alles drin und keiner beschwert sich darüber.
http://www.pcgameshardware.de/Gefor...esigns-Taktraten-Kuehlung-Powerlimit-1223971/

Bei AMD ein absolutes NoGo, bei NVIDIA wieder OK. Typisch!

Naja, bei ca. 40% Mehrleistung ist die ti dennoch sehr effizient, bzw. Ist die Vega halt entsprechend ineffizient.
Nur weil die Karten ähnlich viel verbrauchen sind sie nicht ähnlich gut.
Dazu müssten beide bei ähnlich viel Verbrauch, ähnlich viel fps leisten. 40% sind aber fast so viel wie der Unterschied einer Generation ( 980ti zu 1080ti ca. 45-50%)

Mit anderen Worten, die effizientes der Vega ist scheisse, das kann man nicht gut reden. Für die generierte Leistung wäre es ok wenn wir noch 2014/2015 mit der NVIDIA Maxwell Zeit hätten.
Aber seit Pascal, nun ja..

Wie kann man das noch immer gut reden?

Klar toll das AMD gegen das NVIDIA Monopol ansteuert, aber wenn wir nach den Fakten gehen, siehts einfach nach 2013er Verbrauch (Hawaii) und 2016er Leistung aus..
 
Hallöchen an alle mal durch Mining scheiße gibt's Defakto keine GPUS mehr zukaufen auch keine NTS und und.

Also wer jetzt eine GPU kauft egal von wen ist selten dumm sorry ist so die Händler schlagen auf was sie nur können und lachen sich ein Loch in den Bauch.

Aber muss halt jeder selbst wissen ich kaufe dieses Jahr nix mehr egal wo und bei wem.

Lieber eine neue SSD und gut ist.
 
Vergleich zur gtx 1080 im Stromverbrauch
Und Kosten

Mal angenommen man spielt etwa durchschnittlich 6 Stunden am Tag
Die AMD rx vega 65 verbraucht etwa 100 Watt mehr

0.1Kw x 6Std.
0.6Kw x 365 Tage
219Kw x 0.29 Cent

Das sind im Jahr schon etwa 63 Euro mehr Stromkosten bei 6 Stunden Spielzeit am Tag
aufs Jahr gerechnet
 
Wer spielt jeden Tag 6 Stunden? :freak:
 
Ich hatte eine R9 290 verbaut und dachte mit einem guten Kühler und Spannungsreduzierung kann man ihr Manieren bei bringen. Man kann nicht - zumindest nicht wenn man großen Wert auf ein kühles Zimmer und leisen Betrieb liegt.

Es ist mir zu blöd geworden, zum 80. mal den Zusammenhang zwischen Verbrauch, Abwärme und Lüfterdrehzahl sowie Zimmertemperatur zu erklären. Es solle doch bitte jeder kaufen, was er für notwendig hält.
 
Zurück
Oben