News High-End-GPU: AMD Vega 10 mit 16 GB und 1.600 MHz gesichtet

Macht hinne AMD. Mein Urlaubsgeld ist schon für neue Hardware verplant! Warte schon wie verrückt darauf, ob es eine 1080ti oder eine Vega werden soll.

Auch wenn ich noch unsicher bin ob 7700k oder Ryzen tendiere ich doch eher zum Ryzen 7 1700. Jetzt stellt sich nur noch die Frage: "Pascal oder VEGA?"

Kleine Frage in die Runde: Es soll hauptsächlich Gaming Rechner werden, Streame aber auch. Daher sollte doch der Ryzen eher geeignet sein, oder würde auch ein Ryzen 1600X reichen, weil er mehr Takt hat?
 
Also, meine Glaskugel sagt über die kommende Vega folgendes:

- 16GB wird es nur für Profi-Bereich geben, für alle Consumer sind nur bis zu 8GB möglich
- Leistungsmäßig zwischen einer 1080 und einer 1080Ti, aber etwas näher an der Ti
- Schlechter Übertaktungspotential, aber wenn man übertaktet liegt man auf dem Niveau einer 1080Ti FE (nicht übertaktet)
- Sehr hoher Stromverbrauch, da AMD ihre Grafikkarten, im Gegensatz zu NVIDIA, nicht drosselt (ja, NVIDIAs Karten sind nicht sparsam, wenn man die ganzen Sparmechanismen außer Kraft setzt, kann man ganz schön sehen welche Leistung der Chip wirklich hat)
- Preislich, ab 450 € (Einsteigerkarte) bis hin zu 680 € (High-End Consumer Model mit 8GB)

Jetzt muss ich aber die Kugel ausschalten, die spinnt nun irgendwie, zeigt mir komische Zeichen wie "i9", "Ri..2" an :D
 
Zuletzt bearbeitet:
Kabelkasper schrieb:
Aber dann kommen die NV-Fanboys aus ihren Löchern und behaupten dann 16GB braucht kein Mensch oder so ähnlich. Das ist aber auch nur so, weil NV keine Karte mit 16GB im Angebot hat.
Ob jemand 16GB Speicher [VRam] braucht, muss jeder für sich entscheiden, da braucht man kein Fanboy sein. Ganz ehrlich, ich nutze jetzt seit einem Jahr eine GTX 1070 mit 8GB und bisher hatte ich nur zwei Games wo mal die 7GB Marke angekratzt wurde, ansonsten lag die VRam Auslastung deutlich unter 5GB. Klar kann man da jetzt die Panik bekommen, weil zwei Games jetzt mal die 7GB angekratzt haben und nur noch Grafikkarten kaufen die 16GB Speicher oder mehr haben. Mir persönlich würde es aber mehr bringen, wenn die Grafikkarte 40 FPS mehr Leistung zum gleichen Preis bringen würde und der VRam bei 8GB bleibt! ;)
 
Zotac2012 schrieb:
[...]vielmehr wird man sich bei der GTX 1080 einordnen und je nach Game vielleicht ganz leicht darüber.

Wie soll AMD das denn hinkriegen? Mit 1600 MHz wäre ja selbst ne Fury X schneller als das. ;)
 
Nachdem hier alle Spekulieren:
Am Papier wird sie so schnell wie ne 1080TI sein. Die reale Leistung erwarte ich knapp unter einer 1080TI (-10%). Preis so um 600-650€

Für mich ist es aber eher eine (Vertrauens bzw) Systemfrage. Freesync / G-Sync.
Traue ich AMD auch für die Zukunft konkurenzfähiges HighEnd zu?
4k und 144Hz Monitore mit Gsync/Freesync werden kommen. Wird nur blöd wenn man auf Freesync setzt und AMD nach Vega nichts nachliefern kann um den Monitor zu befeuern.
 
Ob die AMD-Vega bis Weihnachten erschienen sein wird? :D;)

Mir gehen diese Vorankündigungen mittlerweile ganz schön auf den Keks.
Ende Mai wird es die Vega wohl noch nicht geben, eher Ende Juni, vermute ich mal.
Und die viel interessanteren „Partnerkarten“ dann wohl erst im Spätsommer oder Herbst. :(

Frage ist dann, ob die Vega überhaupt schneller/besser sein wird, als eine 1080ti ?

Auch wenn ich mich auf die Vega gefreut hatte, habe ich einfach keine Lust mehr, noch länger zu warten.
Ich werde mir nun wahrscheinlich Ende dieses Monats die "KFA2 GALAX GTX 1080 Ti - Hall of Fame" zulegen, und dann auf die Volta warten.

Ist nur zu hoffen, dass dann wenigstens die Volta noch in diesem Jahrhundert erscheinen wird. :D;)
 
Ap2000 schrieb:
Brachliegende Features, die ich niemals benutzen werde, müssen mich aber auch nicht interessieren.

Richtig, sie müssen dich nicht interessieren. Dennoch darf man sie nicht unter den Tisch fallen lassen, wenn man von Effizienz spricht.

Man kann ja durchaus der Meinung sein, dass einem der Stromverbrauch bei AMD Karten für die gebotene Spieleleistung zu hoch ist. Dagegen ist ja nichts einzuwenden. Aber AMD bietet mit seinen Karten eben auch neben der Spieleleistung noch eine entsprechend hohe Leistung für andere Anwendungen. Dies geht (leider) mit einem höheren Stromverbrauch einher.

Beim Vergleich eines Kleinwagens gegen einen SUV würde doch sicher auch niemand behaupten, dass der SUV "ineffizenz" wäre, weil er mehr verbraucht, während er aber natürlich auch eine deutlich größere Zuladung packt und im Gelände natürlich besser ist.
Ob der Käufer diese zusätzlichen Features des SUV nutzen würde oder nicht, spielt dabei erstmal keine Rolle.
Man muss bei einer Effizeinzbetrachung schon alles mit einbeziehen, was ein Produkt mitbringt und das auf den Verbrauch rechnen.
Ergänzung ()

Zotac2012 schrieb:
Ob jemand 16GB Speicher [VRam] braucht, muss jeder für sich entscheiden, da braucht man kein Fanboy sein.

Das ist richtig, aber erklär das mal einem Fanboy. Die richtigen hardcore NVidia Fans behaupteten ja auch, dass eine GTX 1060 mit 3GB Speicher vollkommen ausreichend zum Spielen in FullHD wäre.
Während sowohl Tests, als auch die Praxis deutlich aufzeigen, dass auch in "nur" FullHD 3GB Speicher oftmals eben nicht mehr ausreichen, sondern ständig volllaufen.
 
ich hoffe, dass das keine "pro duo" oder eine profi karte ist, sondern wirlklich ein single-chip für gamer.
 
Atent123 schrieb:
@graysson

Wen der HBMC Controller so funktioniert wie er soll hätte ein 8GB Vega Chip effektiv 16GB.

Es ist leider vollkommen irrelevant, ob der Cache funktioniert, da jedes Spiel eigens darauf angepasst werden muss.
Somit hat man das gleiche Problem wie mit der Fury X.

Jyk schrieb:
@Roche
Das Problem bei Ryzen war eher das einige Personen den 1800X als perfekten Gamer CPU verkaufen und partout nicht einsehen wollten das es bei nicht wenigen Spielen extreme Leistungseinbußen gab.

Also mein 1700X fühlt sich bei ALLEN von mir gespielten Spielen sehr viel flüssiger an. Imho ist der 1600X die ideale Gamer CPU, wenn man von seiner CPU auch in Zukunft etwas haben will. Mit den neuen Intel 6+ Kern CPUs und einer überdachten Preispolitik mag das wieder anders aussehen. Ich denke mal, dass dank des Erfolgs von AMD jetzt wieder verstärkt auf mehr Kerne optimiert wird.

on topic: Ich hoffe, dass AMD uns die Wahl lässt, ob wir 8 oder 16GB kaufen wollen. Sie sollten einfach ein Topmodell mit 8GB und eins mit 16GB+ Preisaufschlag für den zusätzlichen Speicher anbieten, ohne das kleinere Modell zu beschränken.
 
graysson schrieb:
Es ist leider vollkommen irrelevant, ob der Cache funktioniert, da jedes Spiel eigens darauf angepasst werden muss.
Somit hat man das gleiche Problem wie mit der Fury X.



Also mein 1700X fühlt sich bei ALLEN von mir gespielten Spielen sehr viel flüssiger an. Imho ist der 1600X die ideale Gamer CPU, wenn man von seiner CPU auch in Zukunft etwas haben will. Mit den neuen Intel 6+ Kern CPUs und einer überdachten Preispolitik mag das wieder anders aussehen. Ich denke mal, dass dank des Erfolgs von AMD jetzt wieder verstärkt auf mehr Kerne optimiert wird.

on topic: Ich hoffe, dass AMD uns die Wahl lässt, ob wir 8 oder 16GB kaufen wollen. Sie sollten einfach ein Topmodell mit 8GB und eins mit 16GB+ Preisaufschlag für den zusätzlichen Speicher anbieten, ohne das kleinere Modell zu beschränken.

Das ist schwachsinn.
Warum sollte jedes Spiel einzeln angepasst werden müssen ?
 
Roche schrieb:
Die Effizienz ist doch vorhanden. Man muss bedenken, dass bei AMD auch die Consumer Karten die entsprechenden Recheneinheiten besitzen um sie für professionelle Zwecke einsetzen zu können.
Bei NVidia gibts das bei den neueren Consumer Karten nicht mehr. Da muss man extra entsprechende Profi Karten kaufen.

Das ist aber auch nur ein teil der Wahrheit. Bei nicht belastung der FP64 Einheiten haben sie auch keinen großen Einfluss auf die leistungsaufnahme. Zumal es dem Kunden am Ende eh relativ egal ist, wovon der verbrauch zustande kommt. FP64 berechnungen werden in Spielen nicht genutzt. Und im privaten Umfeld werden dise Art der Berechnung auch nicht wirklich gebraucht. AMD macht das, damit man keine verschiedenen Chips für Privat und Heimanwender bauen muss und so Produktions und Entwicklungskosten spart. Aber in neueren Generationen nimmt das Verhältnis FP32 zu FP64 auch bei AMD ab. Und auch im professionellen umfeld wird diese Art der Berechnung nicht si häufig gekauft. Es ist daher ein schlauer Schachzug von nvidia, dass man dies ausgliedert. Und so kann man die Bedürfnisse für beide Märkte genauer abdecken.

Ein problem bei den AMD Karten ist hauptsächlich, dass die GCN Architektur ziemlich am limit arbeiten muss. AMD quetscht die Architektur bis ans Maximum aus und betreibt sie weit außerhalb des sinnvollen rahmens. Sieht man super bei Polaris. Im grunde ist dies eine recht effiziente Architektur, wenn man sie entsprechend niedrig taktet und mit den entsprechenden spannungen versorft. Aber um mit nvidia mitzuhalten, setzt AMD die brechstange an und treibt takt und Spannung ziemlich hoch. ähnliches hat nvidia früher auch gerne mal gemacht.

GCN ist architektonisch nun mal leider am Ende und deshalb ist Vega so wichtig
 
Was ihr Euch immer so über den Energiebedarf aufregt. :-D
Meine 980ti verknallt fast 400 Watt und da wird sicher keine der aktuellen Karten hinkommen. :-)
Und darüber hat sich damals auch keiner aufgeregt :-)
 
Roche schrieb:
Beim Vergleich eines Kleinwagens gegen einen SUV würde doch sicher auch niemand behaupten, dass der SUV "ineffizenz" wäre, weil er mehr verbraucht, während er aber natürlich auch eine deutlich größere Zuladung packt und im Gelände natürlich besser ist.

Die "Ineffizienz" wird den SUVs doch regelmäßig vorgeworfen, eben weil sie meistens nur für Stadtfahrten und normale Einkäufe genutzt werden. Produkte haben keine intrinsische Effizient, sondern diese hängt vom Anwendungsfall ab. Eine Betrachtung unabhängig von diesem empfinde ich nicht als sonderlich Zielführend.
 
Mracpad schrieb:
Wie soll AMD das denn hinkriegen? Mit 1600 MHz wäre ja selbst ne Fury X schneller als das. ;)

Du weißt doch dont feed the troll ;)

Find es schon sehr amüssant, wie manche jetzt schon genau wissen, dass Vega mit dem Chiptakt aufjedenfall hinter einer GTX 1080 TI landen wird...

Ich bin da mal sehr gespannt, was AMD aus dem Hut zaubert :)
 
@Atent genauso unsinnig ist deine Behauptung, dass 8 Gb mit dem HBMC Controller es effektiv 16 Gb wären. Das ist schlicht nicht wahr. 8Gb sind 8 GB. Man kann mit Kompressionenarbeiten Tiled Cache etc. all das verkleinert effektiv die benötigte Speichermenge, aber auch hier bleiben 8 GB 8 GB. Und mit Tiled Cache und Kompression arbeitet Nvidia ebenfalls.
 
FROSTY10101 schrieb:
Ob die AMD-Vega bis Weihnachten erschienen sein wird? :D;)

Mir gehen diese Vorankündigungen mittlerweile ganz schön auf den Keks.
Ende Mai wird es die Vega wohl noch nicht geben, eher Ende Juni, vermute ich mal.
Und die viel interessanteren „Partnerkarten“ dann wohl erst im Spätsommer oder Herbst. :(

Frage ist dann, ob die Vega überhaupt schneller/besser sein wird, als eine 1080ti ?

Auch wenn ich mich auf die Vega gefreut hatte, habe ich einfach keine Lust mehr, noch länger zu warten.
Ich werde mir nun wahrscheinlich Ende dieses Monats die "KFA2 GALAX GTX 1080 Ti - Hall of Fame" zulegen, und dann auf die Volta warten.

Ist nur zu hoffen, dass dann wenigstens die Volta noch in diesem Jahrhundert erscheinen wird. :D;)

Die ersten Wochen werden eh erstmal wieder die Bitcoinminer und Co den Markt leer fegen, war bei Polaris auch so.
 
Mustis schrieb:
@Atent genauso unsinnig ist deine Behauptung, dass 8 Gb mit dem HBMC Controller es effektiv 16 Gb wären. Das ist schlicht nicht wahr. 8Gb sind 8 GB. Man kann mit Kompressionenarbeiten Tiled Cache etc. all das verkleinert effektiv die benötigte Speichermenge, aber auch hier bleiben 8 GB 8 GB. Und mit Tiled Cache und Kompression arbeitet Nvidia ebenfalls.

HBMC hat doch nichts mit Tiled Cache Rendering zu tun.
HBMC ist eine neue Art Speichercontroller der verhindert das nicht benötigte Daten in den V-Ram geladen werden.
Laut AMD sind in modernen Games wie The Witcher 3 über 50% der Daten im VRam Müll.
 
Roche schrieb:
Beim Vergleich eines Kleinwagens gegen einen SUV würde doch sicher auch niemand behaupten, dass der SUV "ineffizenz" wäre, weil er mehr verbraucht, während er aber natürlich auch eine deutlich größere Zuladung packt und im Gelände natürlich besser ist.

Doch, tu ich, da ich SUVs für 80% der SUV-Fahrer als überflüssig erachte.
 
@Atent123

Und dann fragst du warum man da für jedes Spiel optimieren muss? Ich weiß was HBMC ist, hab auch nicht behauptet, das Tiled Cache direkt damit zusammen hängt. Aber deiner Aussage nach musste man annehmen, dass du eben nicht weißt was HBMC ist. Wie soll bitte ein Controller entscheiden, was im Speicher gebraucht wird und was nicht, wenn man das nicht für jedes Spiel spezifiziert? Und wenn 50% bei Witcher 3 Müll sind und nichtma 5 Gb genutzt werden, wozu dann überhaupt 8 GB wenn einfach so derart wenig Platz benötigt wird..
 
Hoffentlich wird damit endlich ein Preiskampf im High-End Bereich entstehen! Wünsche ich AMD und v.a. den Consumern.
 
Zurück
Oben