Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

Das Ding auf der Vega 56 wird also so bald wie möglich mein GTX 970 Strix Ersatz.

Wolfgang schrieb:
Finale Partnerkarten Ende September im Test

Ich hoffe, dass die Vega 56 Customs dann nicht erst im Oktober kommen.
Hab ihr dazu schon eine Einschätzung von Asus und Co.?
 
timmy93 schrieb:
Das sind im Jahr schon etwa 63 Euro mehr Stromkosten bei 6 Stunden Spielzeit am Tag
aufs Jahr gerechnet

Als würde jemand der 6 Stunden am Tag aufs GANZE JAHR gerechnet spielt sich wegen 63 Euro Stromkosten aufregen.

Man bedenke was der man an HEIZKOSTEN Spart! mittels Wasserkühlung kann er bestimmt auch damit heiß Duschen :p
(musste sein xD)
 
Ja 6 Stunden sind etwas übertrieben
Bei 4 wärens etwa 43 Euro
Ging ja eher darum was msn bei der Anschaffu g spart im Unterhalt mehr zahlen muss
Sofern Vega iwann humane Preise bekommt
Edit: nach 6 Std Spielzeit darf man auch mal heiß duschen gehen :-)
 
Zuletzt bearbeitet:
foxio schrieb:
Wer 6h am Tag spielt, kann sich eh keine Vega leisten :D
Das halten Youtuber wie Gronkh und Co. aber sicherlich für ein Gerücht. :D
Ebenso gibt es unglaublich viele Menschen, die als Single dann einsam nach der Arbeit zuhause vor dem PC daddeln, und gar nicht wissen wo hin mit ihrem verdienten Geld, da Single sein ja das aktuelle westliche ideale Gesellschaftsmodell ist.
 
timmy93 schrieb:
Ging ja eher darum was msn bei der Anschaffu g spart im Unterhalt mehr zahlen muss
Sofern Vega iwann humane Preise bekommt

Immer noch sehr pauschal da das schon viel zocken ist unter hoher Last!

Idr. zählt für die meisten aber sowieso nur der Anschaffungspreis da etwaige höher haltungskosten einfach im großen ganzen verschwinden.
___________________________

Ein Streamer und co. nutzt seinen PC und die Spieleleistung aber zur Arbeit dahingehend zählt dann auch wieder nur Leistung...
 
MichaelJosef schrieb:
Das bedeutet wenn du jeden Tag 3 Stunden spielst und die komplette Zeit über die Karte voll auslastest kostet sie dich 30 Euro mehr im Jahr.... Wer sich eine Grafikkarte für 600€ kauft der hat auch das Geld 30€ mehr im Jahr zu bezahlen. Dafür bekommt er eine deutlich höhere Rohleistung und in neueren Spielen mit DirectX12 und Vulkan wahrscheinlich auch noch mehr FPS als mit der 1080. Mal abgesehen davon, dass wahrscheinlich die aller aller wenigsten (selbst die Leute die sich eine High End Karte kaufen) 3 Stunden jeden Tag spielen. Stromverbrauch spielt beim PC eine so geringe Rolle wird aber immer wieder für Marketing Zwecke benutzt.

Jeder bezahlt Stromkosten dafür, dass er seinen Rechner benutzt. Darüber sollte sich jeder im Klaren sein. Wenn es aber um den Vergleich zwischen Vega64 und vergleichbaren Konkurrenzprodukten geht, dann wird der Kauf häufig über den Preis entschieden. Bei dem ist Vega mit mindestens 609€ gegenüber ~550€ bei einer 1080 schon nicht gut aufgestellt. Wenn jetzt aber über die 4 Jahre oder so, die du gedenkst Vega zu nutzen noch 100€ über die Stromrechnung draufzahlen darfst, die bei der Konkurrenz nicht anfallen, dann steigt der reale Preis der Karte im Vergleich zum Konkurrenzprodukt nunmal auf 706€. Und was hier einige im Forum tun ist die Tatsache, dass diese in Inkrementen gezahlt werden als nichtig zu betrachten, weil der Betrag schließlich so relativ klein scheint, und das Gleiche ja auch schnell mal bei einem Cocktailabend weg ist. Dass statt vier Cocktailabenden aber nur Hitze produziert wird kann scheinbar ignoriert werden. Vielleicht sollte man im Vergleich zu Vega die 1080 also als 4 Cocktailabende inklusive vermarkten.

Die Tatsache dass deine Wohnung im Sommer stärker beheizt wird ist natürlich auch nicht irrelevant. Ich war am Anfang auch über die Lautstärke der Karten besorgt, aber Asus beweist hier, dass zumindest diese Sorge unbegründet ist.
 
Hallo zusammen,

@ timmy93 & NilRecurring

Ging ja eher darum was msn bei der Anschaffu g spart im Unterhalt mehr zahlen muss

Schau dir meinen Beitrag # 240, auf der Vorhergehenden Seite Unten an. Das ist noch nicht Alles bzw. muß noch nicht Alles sein.

So long....
 
AMD-Mafiosi schrieb:
Mache ich mir eine Kosten Nutzen Rechnung wegen meines Motorades oder meiner RC Autos? Nein.. Das nennt man Hobby. Und wenn man 3-4 Std Spielt (bei mir sind es derzeit vllt 10Std Spielbetrieb in der Woche, dann sind selbst 100W (Vega 64 UV: 213W ;)) eben lachhaft..

Erstaunlich wie du dir Vega in jedem deiner Kommentare so extrem schönredest.
Über 150 Watt mehr als bei einer Stock GTX 1080 für 2 bis 6% mehr Leistung. (Fulll HD 2%, WHQD, 4%, 4K 6%)

Das lohnt sich ja wirklich total. Selbst eine 1080 Ti mit deutlich mehr V-ram bietet ein besseres Preisleistungsverhältnis.
Vega 64 macht keinen Sinn und von OC sollte man abrücken, sonst liegt man dann bei über 400 Watt nur für die Grafikkarte.

Und selbst wenn es ein Hobby ist brauche ich dafür nicht unnöig viel Kohle ausgeben.

AMD-Mafiosi schrieb:
Nen Wochenende Party frisst das in 2-3 Tagen auf :D Also was mich ein Produkt welches 15€ im Jahr teurer ist.. Und wer die 15€ nicht hat, sollte sich weder ne 1080 noch ne Vega kaufen.. So einfach ist das

Du verstehst nix davon wie man sein Geld beisammen behält.
Eine Party is eine Party und eine Anschaffung ist eine Anschaffung.
Erzähl mir hier nicht es lohne sich eine Vega64 zu kaufen.
Bei sagen wir Stock vs Stock 120 Watt merverbrauch sind das gut und gerne bei jemanden der öfter mal zockt satte 40 Euro im Jahr!

Stromverbrauch musst du genauso bezahlen als die Karte selbst, macht also keinen Unterschied.

AMD-Mafiosi schrieb:
@Jakno:
Das ist doch nichts neues.. Bei AMDs Threadripper wird bei einer 1000€ CPU auch mit einem 400W Brett argumentiert oder gar mit DDRAM... Das ist das Niveau von CB heute.. Leider

Ähem.. es geht nicht alleine um die Stromkosten, sondern auch um Abwärme, Erwärmung anderer Komponenten, Lautstärke und die Erwärmung des Zimmers wo die Kiste steht.
Eine leicht übertakete GTX 1080 mit vielleicht 180 bis 200 Watt Verbrauch schläg eine Vega Srix knapp in der Leistung bei halbem Strombedarf. Ja vielleicht nicht unter 4K, aber in Full HD und WHQD schon.

Wer zockt schon in 4K.
 
Zuletzt bearbeitet:
DarkerThanBlack schrieb:
Solange NVIDIA kein FreeSync unterstützt, ist dieser Verein für mich inakzeptabel.

Da können die roten Fanboys sehr froh sein das Nvidia es nicht unterstützt. Freesync ist das einzige Kaufargument von Vega. Darum wurde es auch stark beworben mit Vega. AMD weiß das ganz genau das sie mit Vega locker eine ganze Chip Generation hinter Nvidia her laufen und Freesync der letzte Strohhalm ist.
 
Von daher Schade AMD aber dieses mal wirds nach 7,5 Jahren (HD5870 2Gb->290x 8Gb) wieder was Grünes.mal gucken, was ihr in 3-4 Jahren anbietet.
Top! Endlich mal einer wie ich der VRam satt mit nimmt und die Dinger ausquetscht bis zum Schluss und auch mal eine Generation überspringt. Darauf hab ich 10 Jahre warten müssen hier im Forum. :)

Wer zockt schon in 4K.
Hier, 4k only zocker ab sofort. :D
 
Zuletzt bearbeitet:
Wo her kommt bitte schön immer wieder die ganzen NV Fanboys und zum Thema Gsync es hat hier nix verloren der scheiss DMR Mist, wo NV pro Monitor ein Hunderter kassiert.

Gut zurück zum Thema also habe selbst früher viel gezockt und hat mich der Stromverbrauch gestört nee. Echt wie krass die Leute sich beim Verbrauch von Highend aufregen, aber Diesel fahren und alte Glühbirnen verwenden und Staubsauger die 3600Watt verbrauchen.

Nee einfach goldig und man sieht wie sehr NV es geschafft hat die Leute zu manipulieren.

Naja egal witziger weise wird es die GPU genau wie die anderen AMD GPUs sowieso nicht zu normalen Preisen zu kaufen geben.

Wie gesagt habe diese ja sowieso schon abgehackt was GPUs angeht.
 
Hach ja. Dann will ich auch mal das Stromverbrauchsargument ad absurdum führen.

2 Std. pro Tag zocken, 7 Tage die Woche, 365 Tage im Jahr (Durchschnitt, da ja sicher nicht an allen Tagen gezockt wird, und dafür dann mal mehr mal wieder weniger. Vielleicht ist man mit Frau auch mal im Urlaub oder unterwegs, und Vollzeit arbeiten geht man in der Regel ja auch.)
Erwarteter Mehrverbrauch, wenn full Load im Power limit: 150 W
Durchschnittlicher Mehrverbrauch im Nutzungsmix idle/gaming load (etwas großzügiger, auch Idle oder Pause des Spiels wo die Graka runtertaktet kommt häufiger vor): 110 W

Kosten Strom pro kWh bei örtlichem Versorger und Privatpersonentarif (Stand heute, brutto inkl. MwSt.): 26,45 ct

2 * 365 = 730 Std.
110 W = 0,11 kWh

0,11 * 730 = 80,3 kWh
80,3 * 0,2645 € = 21,24 €

21,24 €...

Sind 1,77 € oder 6,67 kWh im Monat. 2 x 1,25 Liter Coca Cola sind teurer. Selbst 500 g Billig-Hackfleisch kostet mehr. Man bekommt dafür etwas mehr als einen Liter Sprit, mit welchem man (8,5 l Durchschnitt) runde 11 bis 15 km weit kommt.

Kein Wunder, dass hier alle wegen dem Stromverbrauch rund drehen. :freak: :D :evillol:
 
Ich höre hier im Thread immer wieder dass Vega wohl von Minern aufgekauft wird. Gibt es dafür bisher irgendwelche Evidenz?

Wenn man sich das Angebot von MF anschaut sieht das wie folgt aus:

esba8Zm.png

Meistverkauft ist die Sapphire mit 300+, gefolgt von der XFX mit 260+ Einheiten. Die anderen Hersteller sind quasi nicht relevant mit 5+ oder 10+ Einheiten. Da am Erscheinungstag die Karten von Sapphire und XFX für 509€ verkauft wurden gehen die allermeisten der angezeigten Verkäufe auf diese Aktion. Die XFX Karte war anschließend noch für einige Zeit im Mindstar Angebot für 609€ verfügbar, wobei ich nicht weiß wie viele der Verkäufe dabei generiert wurden. Ich meine mich erinnern zu können, dass der Stand heute früh noch bei 240 war, also nicht viele.

Zusammenfassend kann gesagt werden:

  • Für 509€ gingen zumindest die limitierten Bestände sehr schnell weg
  • die Vega-Radeon-Bundles für 609€ scheinen verglichen damit kaum Interesse wecken zu können
  • kein Schwein interessiert sich für Radeon-Bundles für 750

Wo genau sind hier Minder nötig im die Beobachtungen erklären zu können? Ist es so schwer vorstellbar, dass ein paar Leute mit ordentlichen Freesync-Monitoren sehnsüchtig auf genau diese Gelegenheit gewartet haben? Was genau sollte Vega für Miner interessanter machen als Polaris?
 
AMD-Mafiosi schrieb:
Ich sag ja, er hat keine Ahnung was P/L Bedeutet ;) AMD ist Pro € besser und das war bisher immer so.. Vega krankt an den Mining Preisen, ebenso Polaris.. Das das aber nicht AMDs Schuld ist, sondern die Einzelhändler eben AMrge machen wollen, sagte Shelung ja auch schon

Nein. Vor dem Mining Irrsinn gab es die 1080 im Handel bereits auch schon für unter 499€, teilweise sogar für 450€. Geht man davon aus, dass die Preise ohne Mining weiter gesunken wären, dann wäre AMD mit der RX64 heute mit seiner UVP von 499€ immernoch 50€ teurer als die 1080 bei schlechterer Leistung und Effizienz. Ich war bisher immer bereit auf AMD zu warten, dieses mal haben sie es aber einfach verbockt. Sollte sich das Preisgefüge in einem Monat nicht signifikant zu Gunsten von AMD ändern pfeiff ich auf Free Sync und hol mir die 1080.
 
timmy93 schrieb:
Vergleich zur gtx 1080 im Stromverbrauch
Und Kosten

Mal angenommen man spielt etwa durchschnittlich 6 Stunden am Tag
Die AMD rx vega 65 verbraucht etwa 100 Watt mehr

0.1Kw x 6Std.
0.6Kw x 365 Tage
219Kw x 0.29 Cent

Das sind im Jahr schon etwa 63 Euro mehr Stromkosten bei 6 Stunden Spielzeit am Tag
aufs Jahr gerechnet

ALso soviel kann ja nur ein Harzer spieler ... und der kann sich so eine karte nicht leisten ...
Ergänzung ()

anthony274 schrieb:
Am Ende ist es doch völlig egal: bei NVIDIA bekomme ich für das gleich oder weniger Geld eine gleichschnelle Karte, welche weniger Strom verbraucht, damit kühler und leiser ist. Welcher Grund spricht denn für sie Vega 64 und gleichzeitig gegen die 1080?

Freesync
 
Köf3 schrieb:
Sind 1,77 € oder 6,67 kWh im Monat. 2 x 1,25 Liter Coca Cola sind teurer. Selbst 500 g Billig-Hackfleisch kostet mehr. Man bekommt dafür etwas mehr als einen Liter Sprit, mit welchem man (8,5 l Durchschnitt) runde 11 bis 15 km weit kommt.

Kein Wunder, dass hier alle wegen dem Stromverbrauch rund drehen. :freak: :D :evillol:

Oh Gott, es sind dennoch Ausgaben die man bei der Konkurrenz nicht hat. Was ist daran so schwer zu verstehen? Wenn man in 3 Jahren bei einer Vega 65€ mehr bezahlt dann kostet Vega als Grafikkarte halt noch weitere 65 Aufpreis gegenüber von einer 1080.

Über diese Inkrementierung kann man sich alles Unangenehme wegreden. 200€ Aufpreis für G-Sync gegenüber Freesync ohne quantifizierbaren Mehrwert einfach nur weil Nvidia es kann? Aber einen G-Sync Monitor gedenke ich mindestens 6 Jahre zu nutzen, das ist schließlich eine Investition. Also Zahle ich maximal 33€ Aufpreis pro Jahr. Das sind kaum 2,80€ pro Monat. Das Zahlst du für ne Tiefkühlpizza oder nen Energydrink + Breath Mints. Also habt euch mal bitte nicht so.

Klingt dumm? Ich hoffe doch...
 
schkai schrieb:
ALso soviel kann ja nur ein Harzer spieler ... und der kann sich so eine karte nicht leisten ...
Ergänzung ()

Freesync

Wieso Harzer?
Ich kenne viele Leute die durchschnittlich 6
Stunden am Tag zocken
Und ja die arbeiten sogar VOLLzeit
Wie ich aber bereits selbst eingeräumt habe
6 Std sind übertrieben
 
Köf3 schrieb:
Hach ja. Dann will ich auch mal das Stromverbrauchsargument ad absurdum führen.

2 Std. pro Tag zocken, 7 Tage die Woche, 365 Tage im Jahr (Durchschnitt, da ja sicher nicht an allen Tagen gezockt wird, und dafür dann mal mehr mal wieder weniger. Vielleicht ist man mit Frau auch mal im Urlaub oder unterwegs, und Vollzeit arbeiten geht man in der Regel ja auch.)
Erwarteter Mehrverbrauch, wenn full Load im Power limit: 150 W
Durchschnittlicher Mehrverbrauch im Nutzungsmix idle/gaming load (etwas großzügiger, auch Idle oder Pause des Spiels wo die Graka runtertaktet kommt häufiger vor): 110 W

Kosten Strom pro kWh bei örtlichem Versorger und Privatpersonentarif (Stand heute, brutto inkl. MwSt.): 26,45 ct

2 * 365 = 730 Std.
110 W = 0,11 kWh

0,11 * 730 = 80,3 kWh
80,3 * 0,2645 € = 21,24 €

21,24 €...

Sind 1,77 € oder 6,67 kWh im Monat. 2 x 1,25 Liter Coca Cola sind teurer. Selbst 500 g Billig-Hackfleisch kostet mehr. Man bekommt dafür etwas mehr als einen Liter Sprit, mit welchem man (8,5 l Durchschnitt) runde 11 bis 15 km weit kommt.

Kein Wunder, dass hier alle wegen dem Stromverbrauch rund drehen. :freak: :D :evillol:

Wenn man mit freesync argumentiert, dass Vega bei Marktpreisen von 650€ im Vergleich zu 500€ für die schnellere, leisere uns sparsamere 1080 das bessere P/L Verhältnis hat, sollte auch für Diskussionen bezüglich des Mehrverbrauchs offen sein. Bei so einer Rechnung sind die 100€ Einsparung durch den FreeSync Monitor schnell wieder durch das dann notwenidgere stärkere Netzteil amortisiert ;-)

Btw. Ich wette dass zum Release im September selbst die Vega 56 im Handel teurer sein wird als die GTX 1080.
 
In der Lebenszeit also der Aufpreis zu TI bei deutlich mehr Leistung und weniger Raumtemperatur im Sommer.
 
Zurück
Oben