Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

Für den guten 1440p 144Hz 27"+ Monitor mit 30/35-144Hz Freesync zahlt man auch seine 400+€.
In dem Bereich gibts gegenüber Gsync kein Vorteil
 
NilRecurring schrieb:
200€ Aufpreis für G-Sync gegenüber Freesync ohne quantifizierbaren Mehrwert einfach nur weil Nvidia es kann?

Du weißt schon, dass Du diesen Aufpreis in aller Regel beim Kauf auf einmal zahlst und das natürlich im Geldbeutel erheblich mehr schmerzt als ein Aufpreis, der Monat für Monat (hier: Strompreis) abbezahlt wird?

Dein Einwand stimmt ja prinzipiell, aber deswegen ist Ratenzahlung für teure Geräte doch immer beliebter. Weil man große Ausgaben eben einfach besser händeln kann als mal eben die dicke Kohle auf einmal rauszuholen. Wenn der Bildschirm per Ratenzahlung gekauft wird, tun die 200 € einfach "etwas" weniger weh als bei Einmalzahlung, zumindest psychologisch...
 
emulbetsup schrieb:
Das war aber genau der Punkt meines Postings. Wenn man glaubt die 100 Watt Mehrumsatz hätten irgendeinen nennenswerten Einfluss auf den ökologischen Fussabdruck eines Mitteleuropäers oder US-Amerikaners versteht die Dimensionen nicht. Bei zwei Stunden täglicher Nutzung ergibt sich im Laufe eines Jahres lediglich der klimaökologische Schaden, den die Produktion/Vertrieb von knapp 400g Rindfleisch haben.

Ist man in seinem Leben auch nur einmal geflogen, entspricht der ökologische Schaden ein Vielfaches dieses Mehrumsatzes.

Da hast Du Recht und darauf rumreiten bringt halt nichts aber es gibt wie schon geschrieben auch neben dem "Verbrauch", welcher mir persönlich ziemlich egal ist, keine "rationalen" Gründe für Vega-Karte. Für mich ist es wie "damals" bei der GTX480 nur heute eben Vega64.

Und man kann sich wenn man möchte ALLES schön rechnen und schön reden wenn man es möchte ändert aber nichts an der Tatsache und Faktenlage außer man beruft such auf die "alternativen" Fakten ;-) (sorry wollte nicht politisch werden aber das passte gerade ;-))
 
Diese ganzen Amateurhaften Rechnungen bezüglich der Stromkosten und Abwärme. Niemand hat Daten, die zeigen, wie viel wärmer die Bude wirklich wird, wenn man Vega anstelle einer 1080 nutzt. Keiner misst mal nach, was sein System über einen bestimmten Zeitraum tatsächlich verbraucht und wie hoch die Stromkosten sind. Aber immer schön 100 Watt wie 1000 Watt behandeln. Einfach nur herrlich. :lol:
 
Ich warte ab was in ein paar Treiberupdates mit Vega passiert und wenn dann auch alles quasi freigeschalten und angesprochen werden kann, wo sie sich dann Leistungstechnisch einordnet!

Eventuell sind dann die 300w auch mehr Leistung als eine 1080 Ti...
 
Die Beiträge hier sind grandios unterhaltsam.
Vega ist so ein schlechtes Angebot, dass nicht einmal die AMD-Fanboys sie wirklich inhaltlich schön geredet bekommen und es werden wirklich direkt reine Lagerkämpfe veranstaltet, die nur den Hersteller verteidigen und nicht das Produkt.

"Früher als AMD besser war, waren alle gemein und haben trotzdem nicht AMD gekauft." (Was hat das hier und jetzt mit dieser Karte zu tun? Wird die davon besser?)

"Die die jetzt enttäuscht sind und doch NVidia kaufen, hätten doch eh nie AMD gekauft." (Tolle Pauschalisierung... DAS ist purstes Fanboytum. Wer jetzt NVidia kauft, kauft weil er selbst unbedingt NVidia will und nicht etwa, weil es aktuell für jeden ersichtlich der eindeutig klügere Kauf ist. Für Leute, die so denken, kann es keinen gerechtfertigten Grund geben beim Feind zu kaufen und was ihre Ansichten zu dem Thema dann wert sind, kann man sich ja dann auch denken.)

"Aber Freesync!!!11elf. So viel günstiger und Riesen-Erspanis für alle." (Hurra ein einzelnes Feature rechtfertigt eine Karte, die ansonsten in beinahe jeder Hinsicht zu schlecht für den aktuellen Markt ist!)

"Dann rechtfertigen sie es halt mit PhysX o.Ä.... Ein blödes Feature, das als Rechtfertigung vorgeschoben wird, weil man ja eigentlich nur NVidia kauft weil man Fanboy ist!" (Vgl. vorherige zwei Absätze.)


Und für diese Prunkstücke der Comedy musste ich lediglich die ersten zwei Seiten überfliegen. Herrlich.
Wer weiß, wie viele Perlen sich da noch auf den folgenden Seiten verstecken?

Ganz ehrlich, so gern und oft ich auch AMD kaufe, die AMD-Boys sind zum Totlachen.
Die NVidia-Fanboys sind meistens einfach nur uninformiert und langweilig.
Aber wie die AMD-Boys auf ihrem oft moralisch hohen Ross fantasieren, offensichtlichste Doppelmoral an den Tag legen und mit den absurdesten Konstrukten Krieg führen gegen die Ungläubigen Grünen, Blauen... ach egal, alle anderen halt!
Einfach köstlich.
 
Nebenher hat die Lederjacke wohl gut lachen nach dem bisher durchwachsenen bis vermasselten Start von AMD/RX Vega, zumindest kommt einem das so vor, wenn man den aktuellen PCGH Artikel zur startenden TSMC 12nm Fertigung für nVidia Volta Ende dieses Jahres liest ...

... ob bei den derzeit steigenden GDDR5 Speicherpreisen dieses sich auch auf GDDR5X und GDDR6 übertragen wird, dürfte ab zu warten bleiben.

Vorstellen könnte ich mir - trotz 2 Jahres-Generationenschritt - schon, dass nVidia weiter mit dem Speicherausbau geizt und nur 8 GB in der Volta Oberklasse (GV104) bieten wird, auch wenn aufrüstwilligen Interessenten eigentlich 12 GB geboten werden sollten und diese nötig wären um zukünftig nicht an Speichermangel zu leiden.

Bei den GV106 dürfte man sich dann es aber eigentlich nicht leisten können weiterhin mit nur 3 und 6 GB gegen die mit 4 und 8 GB bestückten Mittelklasse-GPUs von AMD anzutreten, da ist wohl Ausgleich/Anpassung der Speichermenge seitens nVidia sehr wahrscheinlich.

Jedenfalls wird mir bange im Hinblick auf den mutmaßlich zu GV104 parallelen Vega11 Mittelklasse GPU Marktstart im Frühjahr-Sommer 2018, denn die Architektur dürfte bei aktuellem Stand keine einigermaßen wettbewerbsfähige Effizienz und evt. auch nicht genügend Rohleistung hergeben.

Das könnte ein Fiasko werden, wenn AMD die RX Vega Architekturneuerungen und Treiberoptimierung bis dahin nicht in den Griff bekommen sollte (wenn man bedenkt, dass sie derzeit schon weit mehr als 1/2 Jahr daran arbeiten, stimmt das nicht gerade zuversichtlich).

Zudem kann man auch nur hoffen, dass abseits des Partners Bethesda das auch andere Studios/Publisher annehmen und die Features umsetzen/ausnutzen werden bei der Spielentwicklung.

Aktuell sieht es für AMD jedenfalls nicht berauschend aus auf dem Gaming GPU Markt und vielleicht hat die (späte) RX Vega Oberklasse aber auch nicht so eine hohe Priorität mehr für AMD/RTG (die kommenden RX Vega Mittelklasse sollte diese aber in jedem Fall haben, zumal indirekt auch die Konsolentechnik und APUs sowie Mobil-GPUs da hineinspielen).
 
Zuletzt bearbeitet:
Ich frag mich immer, warum gibt es nie ein vernünftiges Referenzdesign??? Das die Art der Kühlung mit großem Kühlkörper und 2 Lüftern überlegen ist, sollte doch seit Jahren klar sein...

*kopfschüttel*
 
Zwirbelkatz schrieb:
Ich hatte eine R9 290 verbaut und dachte mit einem guten Kühler und Spannungsreduzierung kann man ihr Manieren bei bringen. Man kann nicht - zumindest nicht wenn man großen Wert auf ein kühles Zimmer und leisen Betrieb liegt.

Es ist mir zu blöd geworden, zum 80. mal den Zusammenhang zwischen Verbrauch, Abwärme und Lüfterdrehzahl sowie Zimmertemperatur zu erklären. Es solle doch bitte jeder kaufen, was er für notwendig hält.

Hatte eine 390 Tri-X. Mit angepasster Lüfterkurve, Undervolting, und guten Gehäuselüftern war das eigtl in jeder Hinsicht im Rahmen. Lautstärke sowieso, das war flüsterleise. Und ob man nun einen Verbrauch des Gesamtsystems von 250w mit ner sparsamen Nvidia, oder 350-400w mit einer AMD hat, macht punkto Raumheizung das Kraut auch nicht mehr allzu fett.

Aber gut, für den gleichen Preis nehm ich natürlich trotzdem die 1080, keine Frage.
 
Es gibt nun endlich mal Overclocking-Ergebnisse:

1980 MHz Chip und 1000 MHz RAM führen nur zu 7 % mehr Leistung. Müssten eigentlich mehr sein, aber ist wohl Power limitiert. Was auch gut ist, denn:

Das System zieht jetzt schon 532 Watt!

Jede 1080 macht 1.9 GHz bei 0.95 V und verbraucht dann nicht mal 1/3 von Vega @maxoverclock UND ist wesentlich schneller.

Das muss man sich mal auf der Zunge zergehen lassen.
 
Super noch mehr stromhunger xD

dachte wie wollten es besser machen nicht noch mehr strom rein jagen.

meine güte selbst eine 1080ti braucht weniger strom und die spielt in einem anderen universum.

da hat AMD wider den bigest faile ausgepackt.
naja so kann man es auch einfach machen sich für für gsync und gegen freesync zu enscheiden wens eh nur 1 brauchbaren hersteller gibt.

hab ja gezielt noch gewartet da ich hoffte eine lösung für beide seiten würde kommen in form eines monitors der beides kann ist bist heut ja nicht so.

aber gut wie man siht nach fury x faile jetzt der vega faile ist es auch nicht nötig g sync reicht dann wohl wirklich aus.
 
@ Rusty [GER]
jede 1080?
also meien macht das nicht mit
 
Zuletzt bearbeitet:
Biocid schrieb:
Sowas kann eigentlich nur ein Mitarbeiter, Aktionär, AMD Liebhaber oder Nvidia Hasser schreiben.

Ich mag den der die beste P/L bringt und damit mein Geld verdient hat. Marke, Ansehen, Bekanntheit, Werbung. Schei.ßegal!
Aha und bei einem drohenden bzw späteren Monopol ist das also für den Kunden gewährleistet?

Sowas kann eigentlich nur ein Mitarbeiter, Aktionär, AMD Hasser oder Nvidia Liebhaber schreiben.
 
LyGhT schrieb:
@v_ossi

Ich kaufe AMD Karten aus 3 Gründen.

Treiber mit Wattman ist viel besser als die Nvidia Treiber (Hab nen laptop mit ner 660M und im Vergleich zu deren Treibern, hat Nvidia einfach kein bock die Treiber mal aufzuschönen etc.

P&L Verhältnis ist bei AMD besser.

Karten haben längeren Support und werden von Zeit zu Zeit besser.

@Teralios schöner Beitrag =). +1

Du hast echt nen ( AMD ) Nagel im Kopf.....
 
cruse schrieb:
dir wird bange und es wird ein Fiasko ? soll ich dir nen fanschal stricken ? mir geht das am arsch vorbei und mich interessiert höchstens was es als nächstes gibt ...

Mit Fantum hat das wenig zu tun, sondern damit, dass wir immer mehr auf ein Quasi-Monopol im GPU Bereich zusteuern (was sich über die letzten Jahre hinweg leider abgezeichnet hat) und ja, im Gegensatz zu Dir macht mir das Sorgen, weil ich vorausschauend kaufe und die Marktentwicklung berücksichtige und nicht stur nur Preis-Leistung in meine Überlegung einfließt, denn ich habe schon - im Gegensatz zu Dir scheinbar - realisiert wie teuer ein Quasi-Monopol die Kundschaft kommt.

Auf die Faktoren für diese Marktentwicklung, die auch durch unkritische Käufer wie Dich mit entstanden ist, gehe ich nicht noch 'mal ein, denn die wurden ja schon zuhauf angeführt und müssen jetzt nicht noch 'mal aufgewärmt werden.

Das haben all die Jahre vor RyZen im CPU Bereich sehr gut aufgezeigt und wer sich immer noch dieser Realität verschließt, der tut mir - ganz ehrlich - einfach nur leid ... naja, Deine Einstellung passt zu vielen, die einfach kaufen ohne großartig nachzudenken, also bleib' ruhig weiterhin ein "Lemming" ;).
 
Zuletzt bearbeitet:
Und wenn Leute ein Freesync Monitor haben, werden sie die Vega auch Kaufen müssen wenn die mehr Leistung haben wollen.
 
@mr.smith84 ich hab einen freesync Monitor und eine gtx1070. Nur Schönheits-Gamer benötigen *Sync (das Wort muss ich mir merken :D)
 
Zurück
Oben