News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

@xexex
Zumindest gibt es eine Chance, dass der gewaltige Speicherausbau in vielen Titeln irgendwie genutzt werden kann, und sei es nur durch brachiale Texturmods. Speicher kann man immer mit irgendwas füllen. Bei Raytracing muss man hingegen darauf hoffen, dass zumindest einige Hersteller von diesem Feature Gebrauch machen. Tun sie es nicht, hat man nicht einmal eine theoretische Chance, die entsprechenden Hardwarekapazitäten zu nutzen.

Allerdings hast du auch Recht, dass 16 GB HBM2 ziemlicher Quatsch sind, und dass acht bis zwölf GB eine sinnvollere Ausstattung für eine reine Gaming-Grafikkarte wären. Aber dann würde der Durchsatz der Speichernabindung nicht mehr hinhauen, wenn ich die Details richtig verstanden habe. Vega fühlt sich weiterhin wie eine auf Gaming getrimmte Compute-Grafikkarte an.
 
Bard schrieb:
Oder man redet sich die Irrelevanz von 16 GB VRAM ein.

"Man braucht zum Spielen ja auch nicht mehr als 4 Kerne." brachte uns auch fast 10 Jahre Innovation und Fortschritt... NICHT.
Bin da belehrbar. Hab vorhin Overwatch auf Epic Settings 1440p gespielt, das eiert um 2-3 GB VRAM rum.
Viele Games hängen bei 4-7 GB.

Zeig mir doch mal bitte die Tests, bei denen Games im 8 GB VRAM Limit hängen und das als Problem deklariert wurde.
Evtl ist das völlig an mir vorbeigegangen.

Und am besten die zahlreichen Games, bei denen die 1080ti die 2080 aussticht, weil sie 3 GB mehr VRAM hat und die fps Spikes das deutlich anzeigen.
 
Laphonso schrieb:
Bin da belehrbar. Hab vorhin Overwatch auf Epic Settings 1440p gespielt, das eiert um 2-3 GB VRAM rum.
Viele Games hängen bei 4-7 GB.

Zeig mir doch mal bitte die Tests, bei denen Games im 8 GB VRAM Limit hängen und das als Problem deklariert wurde.
Evtl ist das völlig an mir vorbeigegangen.

Und am besten die zahlreichen Games, bei denen die 1080ti die 2080 aussticht, weil sie 3 GB mehr VRAM hat und die fps Spikes das deutlich anzeigen.

Es soll auch Leute geben die sich eine g-karte nicht nur für 1 Jahr kauft und da grade DX12 gepusht wird von Nvidia und Microsoft investiert man lieber in die Zukunft. Zudem ist diese karte nicht nur fürs spielen andere leute können auch mit arbeiten und die freuen sich
 
“It's [R7] also ~on par with a 1080ti which is terrifying a full node shrink + 16Gb of HBM2 and likely the faster version of it than what was used in Vega to compete with a $700 (launch price) card that launched 2 years prior.”
This isn't how competition should look like.”

Das ironische Highlight:

“Seems more like a content creation card than a gaming card.”

Und das Ernüchterndste:
“As a gamedev/prosumer:
The AMD card has Massive amounts of raw compute potential. Likely to edge even the 2080ti in some tasks. that HBM 16GB stack is massive.
But Nvidia is too far ahead architecturally. In the past year i've wanted to play with Neural Nets and it turns out the really simple test projects you download to mess with only work on CUDA. All the main TF/Torch/Coffee libs are only available with cuda. Some have CL backend support but good luck getting those to work.
The HIP/ROCm compatibility layer only supports linux so you can't just casually mess with it without either dualbooting or running a second GPU and passing through the AMD GPU to the linux. Nvidia will work anywhere.
The Massive FP16 speed is also a factor in nvidia's favor. As well as being potentially lower powered / quieter.
And worst of all they didn't say anything about HDMI 2.1 for the Radeon VII, so it's safe to assume it doesn't have it.

Ein isoliertes Zitat aus dem AMD reddit, um die 16 GB HBM mal direkt zu entzaubern aus Gamersicht.
Ergänzung ()

EDIT: Ich realisiere gerade, dass AMD die R7 selbst als content creation card präsentiert hat, die man für das Gaming nutzen kann.
Last hope: Navi
Ansonsten ist auch 2019 wieder im NVIDIA Korsett....
 
Zero_Point schrieb:
Das sind sie auch.


Wenn das wieder nur mit einem Shrink erkauft wird halbwegs nachzuziehen, dann ist es enttäuschend. Die Karte muss deutlich(!) sparsamer als eine 2080 sein.
Ergänzung ()


Ne, ne 700$ Enttäuschung. Auch nicht besser.

Meine vega 56 undervoltet taktet 200 mhz höher und verbraucht 140 watt weniger, gemessen mit einen strommessgerät. Performace/watt liegt in dem zustand nahe an turing ich denke die 7 nm holen da noch ne ecke raus.

Der Schritt auf 7nm ist nicht ohne, nur amd verkackt jedesmal die richtige spannung zu finden , meisten ist die zu hoch. nvidia brkommt das deutlich besser hin.
 
Für mich auch too little, too late.
Sicherlich eine schicke Karte, wenn man sowas gerade braucht.
Da sie aber vorher noch meinten, Vega 7nm komme nur im Profi-Bereich, hab ich mir zum Geburtstag eine Vega 64 geholt anstatt zu warten. Mit der bin ich zufrieden genug, dass ich jetzt nicht für 700€ nur wenige Monate später eine ~30% schnellere Karte kaufen werde (ja, kann die Vega 64 verkaufen, aber wenn ich da nur 300-400€ für bekomme ist es mir immer noch zu teuer nach so kurzer Zeit und bei einer Mehrleistung <50%). Hätten sie vorher nicht gesagt, da komme nichts, dann hätte ich vielleicht gewartet...
Wenn Navi dann wie spekuliert der Nachfolger von Polaris wird, dann wird die nächste wohl Next Gen in 2020, hoffentlich vermurksen sie die Nachfolgearchitektur von GCN dann nicht. :D
 
Nvidia hat AMD im Prinzip schon die Show vermasselt als sie den Support für Adaptive Sync bekannt gegeben haben. Hinzu kommt noch, dass gut 90% der Spiele in aller Regel schneller auf Nvidia GPUs laufen - gerade auch bei Spielen mit Unity oder Unreal Engine.

Viele der kommenden Spiele hat Nvidia im Sack - Anthem, Metro Exodus, The Division 2. Für The Division wird sogar Raytracing Support spekuliert. Damit wäre auch Ubisoft mit im Boot und neben EA der nächste große Supporter für die Technologie. So schlecht kann es um RT und DLSS nicht stehen, wenn immer mehr Titel Support erhalten. Nvidia hat natürlich auch die finanziellen Möglichkeiten ihre Technologien weiter pushen zu können.

Nvidia passt den Preis für die RTX2080 leicht an, wirbt etwas mehr mit Adaptive Sync, legt ein Spiel dazu und die Karte wird sich mit Sicherheit besser verkaufen als eine Vega 7.

Mit Turing kam ja auch Mesh Shading, quasi ein Pendant zu AMDs Primitive Shader - letzteres hat ja nie wirklich Anwendung gefunden. Würde mich nicht wundern, wenn die Entwicklerstudios in Zukunft vermehrt Mesh Shading nutzen werden.

Nvidia hat den Gaming-Markt so stark im Sack, daran ändert eine 16GB HBM Creators Vega 7 rein gar nichts.
 
  • Gefällt mir
Reaktionen: duskstalker
Finde ich auch nicht wirklich attraktiver als die RTX 2080. So wie ich das sehe hat man momentan die Wahl zwischen Pest oder Cholera.
 
Das hier ist wirklich eine willkommene Alternative und dann auch noch 16gb HBM2. Freue mich schon auf erste Tests. :daumen:
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Jaydensunkiller schrieb:
Lassen wir mal die RTX 2080 außen vor und schauen uns dann die GTX 1180 die angeblich kommen soll. Dann greift erst sicher niemand zur vega

Ist die Frage ob sich das alleine wirtschaftlich rechnet. Es ist ja nicht einfach so, dass Nvidia RT- und Tensor-Cores über Board wirft und schon eine auf Turing basierende GPU ohne RTX Features hat. Zudem ist es auch fraglich, ob es überhaupt Sinn hat, wenn Nvidia sich selbst Konkurrenz schafft. Die Frage ist eher wie viel finanziellen Spielraum Nvidia bei den jetzigen RTX-Karten hat. Die Preise zu senken könnte schon ausreichend sein um neue Kaufanreize schaffen zu können.

Nvidia hat definitiv schlaue Köpfe im Unternehmen und auch die wissen, dass, wenn eine GTX1180 ohne RT käme, würde das die Verkäufe der RTX-Karten wahrscheinlich gegen 0 laufen lassen. Ob das klug ist, gerade auch in Anbetracht der RTX-Käuferschaft, der man mit dieser Aktion nichts anderes zu verstehen gibt als: "Fuck you customer" sei mal dahingestellt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji21 und Jaydensunkiller
Taxxor schrieb:
Welches seit vorgestern auch von Nvidia unterstüzt wird...

... ja, bei gerade einmal 12 popeligen FreeSync Monitoren, ansonsten, wenn man Glück hat und das nVidia-FreeSync-Roulette aufgeht 😉.

Das wäre mir jedenfalls zu wenig/unzuverlässig, wenn man nicht einen der gelisteten, unterstützten Monitore ohnehin besitzt (bei mir zum Glück nicht der Fall).


Zur GPU selbst, warten wir doch erst einmal erste Tests, auch bzgl. Undervolting-Overclocking Potential und evt. Architektur-Anpassungen/-Optimierungen (wie viel Vega I steckt in Vega II?), ab?

Ich hätte 12GB auch als passender (erschwinglicher und mittel- bis langfristig ausreichend genug) für den Gaming-Bereich gehalten, denn 16 GB sind mehr als Speicher satt, aber gut, es ist wie es ist.

Dagegen muten die stagnierenden 8GB einer RTX2080 geradezu lächerlich an und wenn Navi und damit die Konsolen wirklich auf 12 GB (für GPUs) springen sollten, wären (auch wegen besserer Speicherkomprimierung bei nVidia) wohl nur noch die 11 und 12GB RTX/GTX GPUs langfristig ausreichend bestückt (insbesondere, wenn nVidia bei 7nm evt. früh in 2020 schon 12 GB in der Oberklasse, also bei RTX 3070/3080 GPUs, bieten sollte).

Da es sich bei der Vega VII wohl um einen Vollausbau handeln dürfte, bleibt die Frage, ob eine beschnittene Version im Bereich der RTX 2070 (oder leicht darüber/fast GTX1080Ti Niveau) kommt und mit wie viel Speicherausbau (auch 16GB?).

Das wäre analog zu RX Vega 64 und 56 wohl die interessantere GPU (für mich). Der Leistungsbereich deutet indirekt auch an, dass für Navi - wenn auch effizienter - wohl mit nicht mehr als RTX 2060 (jedoch mit Sicherheit mit mehr/ausreichend Speicher) zu rechnen sein dürfte.

Also eine Navi-basierende RX3080 zwischen RTX 2070 und 2080 angesiedelt (wie in vorherigen Gerüchten kolportiert) dürfte wohl eher Wunschdenken bleiben, denn das würde ja eine VII kannibalisieren (es sei denn letztere wäre nur für einen sehr kurzen Lebenszyklus geplant) ;).[/QUOTE]
 
@Laphonso spiel mal quake champions. da reichen 4gb gerade so für low settings.

das thema mit den 16gb hbm2 ist halt: es geht nicht anders. entweder 8gb mit halber bandbreite oder 16gb mit 1tb bandbreite. und die bandbreite ist definitiv ein problem bei vega. rx vega 64 braucht etwa 1050 mhz hbm2 takt, damit der stock turbo boost nicht im bottleneck hängt. jetzt ist halt radeon 7 30% schneller. die radeon 7 mit nur 8gb hbm2 (2 stacks) ist automatisch wieder im bandbreitenlimit, da reicht der hbm2 oc headroom nichtmal aus. da sind die "overkill" 16gb hbm2 definitiv die bessere alternative.

die 8gb speicher mit 4 stacks würden nur mit 2gb hbm2 stacks gehen, und ich bin mir nicht sicher, obs das zeug für die anwendung überhaupt gibt. soweit ich weiß macht samsung aktuell nur 4gb und 8gb hbm2 stacks. sogar kabylake g hat einen 4gb stack.

für mich stellt sich das so dar: die radeon 7 macht mit 2 stacks hbm2 technisch einfach nicht viel sinn. das einzige problem dabei ist der hohe preis von hbm2 - ansonsten gibts an dem ding nix auszusetzen. das ist die vega, die ursprünglich hätte erscheinen sollen. wenn vega 10 nicht so suboptimal gewesen wäre, könnte man jetzt nicht mit <15% mehr takt 30% mehr performance herausholen.

im prinzip stellt sich das relativ einfach dar:

fall 1: ich bin bereit das geld für die karte zu zahlen und bekomme dafür 16gb hbm2.
fall 2: ich bin nicht bereit das geld für die karte zu zahlen und bekomme dafür keine 16gb hbm2, gehe nicht über los und ziehe keine 4000 DM ein.

wer sich da jetzt hinstellt und sagt "da reichen 8gb, 16gb sind sinnlos" kann auch bei nvidia hingehen und sagen "juuuut isch saaach maal, schneid von dem tu102 die tensors und strahlendinger wech, dann is der brumma mit aaaaaachzisch öro immernoch juuut bezahlt!". macht halt keinen sinn, weil tu102 dann kein raytracing mehr kann und vega 20 im bandbreitenlimit hängt. damit würde man die 30% mehrperformance auf 10-15% stutzen. und dafür braucht man keinen 7nm refresh auflegen, wenn die 30% so einfach zu erreichen sind.

die karte ist in compute performance nicht beschnitten, also gleich stark die die mi50, und ich vermute, dass die radeon 7 auch die FE ablöst (also keine FE mit vega 20 die kommt), die eine Radeon Pro ist, d.h. ua. auch entsprechende farbtiefe für profi monitore ausgeben könnte (bisher ja noch unbekannt).

d.h. für jemanden der zockt und was mit den "pro features" anfangen kann, ist die karte eigentlich perfekt. das ist natürlich nicht die breite masse, aber amd bedient ja schon länger nicht mehr die breite masse. da ist nvidia am drücker. und daran wird auch die radeon 7 nichts ändern. trotzdem machts meiner meinung nach mehr sinn 700€ für eine halbprofi karte auszugeben (wenn man damit was anfangen kann) als 1000€ für ne reine zockerkarte. alleine schon deshalb, weil profi karten normalerweise um einiges teurer sind. die vega FE ging 2017 übrigens für 999$ mrsp an den start.


@Chismon

ich glaube nicht, dass eine kleinere "radeon 5" kommt. ich denke das ist eine einmalige geschichte. derzeit gibts noch einige lieferbare vega 10 karten, die genau den performance bereich abdecken. umgekehrt ist hbm2 für den unteren preisbereich nur wenig sinnvoll (bei vega 10 aber gezwungenermaßen), d.h. hier nochmal ne neue karte auflegen wäre nicht sonderlich schlau, zumal ja im h2 navi kommt, die ebenfalls in dieser performanceregion (v56-v64) liegen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso, Colindo und Baal Netbeck
sverebom schrieb:
Zumindest gibt es eine Chance, dass der gewaltige Speicherausbau in vielen Titeln irgendwie genutzt werden kann, und sei es nur durch brachiale Texturmods. Speicher kann man immer mit irgendwas füllen. Bei Raytracing muss man hingegen darauf hoffen, dass zumindest einige Hersteller von diesem Feature Gebrauch machen.

Für beides gilt das gleiche! Im Gegensatz zum Arbeitsspeicher denn DU mit Sachen wie VMs wunderbar füllen kannst, müssten Spiele Texturen für 16GB Grafikkarten mitbringen. Dies ist nach der derzeitigen Stand Absurd, weil der Markt dafür nicht existent ist und die einzige Grafikkarte dafür, die eben vorgestellte Vega ist.

Der Markt für RTX ist hingegen da und fängt bald bei der 2060 an.

Natürlich kann es sein, dass Konsolen und günstigere Grafikkarten bald allesamt mit 16GB kommen. Dies wäre aber reine Spekulation und bis dies eine Marktrelevanz bekommt, kannst du die Vega bereits verschrotten.

Bezahlen musst du dieses "Feature" allerdings, egal ob du je einen Nutzen davon haben wirst und ich schätze die Kosten für die RTX Features erheblich geringer als die Kosten für 8GB HMB2 Speicher.

Womit wir wieder bei dem eigentlichen Problem wären - die Karte hat viel zu wenig Leistung und wird AMD kaum Gewinn einbringen. Sehen wir das bestenfalls als das was es wirklich ist, ein Lückenfüller bis man irgendwas konkurrenzfähiges auf den Markt bringen kann.
 
Zuletzt bearbeitet:
SKu schrieb:
Nvidia hat AMD im Prinzip schon die Show vermasselt als sie den Support für Adaptive Sync bekannt gegeben haben.
Offiziell nur 12 Monitore, beim Rest ist das Ergebnis unklar. Zudem kein VRR über HDMI. Alles (noch) ziemlich halbgar und ein Schnellschuss.

SKu schrieb:
Viele der kommenden Spiele hat Nvidia im Sack - Anthem, Metro Exodus, The Division 2. Für The Division wird sogar Raytracing Support spekuliert. Damit wäre auch Ubisoft mit im Boot und neben EA der nächste große Supporter für die Technologie.
The Division 2 hat AMD bereits "im Sack" und eine Partnerschaft mit Ubi.

SKu schrieb:
Nvidia passt den Preis für die RTX2080 leicht an, wirbt etwas mehr mit Adaptive Sync, legt ein Spiel dazu und die Karte wird sich mit Sicherheit besser verkaufen als eine Vega 7.
Bei der Radeon VII gibt's sogar drei Spiele dazu. VRR siehe oben. Und der Markt für Content Creator sollte nicht unterschätzt werden. $699 gepaart mit 16GB HBM2 sind eine Hausnummer die ihresgleichen suchen.

Und würde es AMD um Verkaufszahlen gehen, hätte man analog zu Ryzen einen aggressiveren Preis angesetzt.

SKu schrieb:
Nvidia hat den Gaming-Markt so stark im Sack, daran ändert eine 16GB HBM Creators Vega 7 rein gar nichts.
Soll sie nicht. Es gibt Konkurrenzprodukte beider Hersteller unterhalb der vierstellig teuren 2080Ti und das zählt für den Konsumenten.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
@xexex

Wie Duststalker schon sagte...Es geht bei den 16GB HBM2 weniger um die größe als um die Bandbreite.

Und es gibt ja durchaus Spiele die mehr Fressen....FFXV z.B. da werden auch einfach die 11GB einer 1080Ti oder 2080 Ti vollgemacht....ob das eine sinnvolle Nutzung des Vram ist sei mal dahingestellt.....aber wenn 6Gb heute schon öfter knapp werden, sind mehr als 8GB nicht verkehrt.

Aber nochmal....die Bandbreite ist hier für Spieler das entscheidende.....und wenn dann noch mehr als genug Platz da ist, ist das ja kein Nachteil. ;)
 
  • Gefällt mir
Reaktionen: duskstalker
SKu schrieb:
Nvidia hat AMD im Prinzip schon die Show vermasselt als sie den Support für Adaptive Sync bekannt gegeben haben. Hinzu kommt noch, dass gut 90% der Spiele in aller Regel schneller auf Nvidia GPUs laufen - gerade auch bei Spielen mit Unity oder Unreal Engine.

Sorry aber das ist gequirlter bullshit den du hier von dir gibst und lässt mich ehrlich gesagt an deiner IT Kompetenz und diesbezüglicher Aussagen zum Thema zweifeln.

Hier hab dir mal die letzten 10 AAA Blockbuster des letzten Jahres nach Release rausgesucht. Quelle wäre dahingehend www.gamegpu.com sortiert nach WQHD Auflösung ! Aber kannst auch gern mal bei PCGH, CB oder den etlichen Youtube Benchmark Videos Ausschau halten und die Ergebnisse vergleichen.
 

Anhänge

  • aco.jpg
    aco.jpg
    113,4 KB · Aufrufe: 472
  • bf5.jpg
    bf5.jpg
    115 KB · Aufrufe: 485
  • bo4.jpg
    bo4.jpg
    105,8 KB · Aufrufe: 439
  • f12018.jpg
    f12018.jpg
    109,9 KB · Aufrufe: 458
  • fc5.jpg
    fc5.jpg
    109,5 KB · Aufrufe: 440
  • fh4.jpg
    fh4.jpg
    116,1 KB · Aufrufe: 439
  • hm2.jpg
    hm2.jpg
    118,3 KB · Aufrufe: 407
  • kcd.jpg
    kcd.jpg
    110,7 KB · Aufrufe: 428
  • mhw.jpg
    mhw.jpg
    111,1 KB · Aufrufe: 425
  • str.jpg
    str.jpg
    115,4 KB · Aufrufe: 439
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper und Benji21
@Linmoum

an die "partnerschaft" mit ubisoft glaube ich erst, wenn ich es anhand von fps sehe. man erinnere sich an prey (bethesda, amd partner), entwickelt von den arkane studios, und die interessiert radeon offenbar nicht wirklich. das spiel war PR technisch ein desaster für amd ("launchtitel" für vega). bethesda ist eigentlich der schlechteste denkbare partner, weil die einzigen, die in dem verbund ordentliche arbeit für amd abliefern, sind id und machine games auf der id tech engine. quake champions von saber interactive ist ne katastrophe, und die bethesda-eigenen spiele sind auch nicht besser (im gegenteil, lol).

dann gibts noch wolfenstein (gerade machine games, bethesda -> amd partner), das erst kürzlich neue nvidia technik nachgepatcht hat, dann the witcher 3, wo nachträglich mit hairworks nachgeholfen wurde und ubisoft ist in in sachen "pro nvidia" auch kein unbeschriebenes blatt - man erinnere sich an den dx 10.1 patch von assassins creed 1, den nvidia aus dem spiel haben wollte, weil die nvidia karten kein dx 10.1 unterstützten und die hd3870 dadurch schneller wurde - nächster patch war dx 10.1 wieder weg, begründung "buggy". und heute läuft die überwiegende mehrheit aller ubisoft titel auf radeonkarten grottig. bspw. assassins creed, wildlands, watchdogs 1. es gab aber auch "ok" titel von ubisoft, bspw. for honor.

deshalb würde ich hier erstmal eine runde skepsis anraten.
 
Baal Netbeck schrieb:
Wie Duststalker schon sagte...Es geht bei den 16GB HBM2 weniger um die größe als um die Bandbreite.

Absolut! Deshalb hat AMD nicht einfach den Speicher weglassen können. Bezahlen tust du aber nicht die Bandbreite sondern die Größe.

Baal Netbeck schrieb:
Aber nochmal....die Bandbreite ist hier für Spieler das entscheidende.....und wenn dann noch mehr als genug Platz da ist, ist das ja kein Nachteil.

Der Nachteil entsteht im Geldbeutel, einmal in deinem und einmal in dem von AMD.
 
r4yn3 schrieb:
An der Karte habe ich eigentlich nur den Preis zu bemängeln. Er ist mir zu niedrig. Ich hatte ja auf ein 1500€ teures Frontier Modell gehofft.
So kommt doch jetzt jeder Otto zu 16GB Vram. Hätte mir etwas mehr Exklusivität erhofft.

Ich hoffe das ist Sarkasmus oder es spricht für einen deutlichen minderwertigkeitskomplex.

Bei letzteren würde ich dir die empfehlen

https://winfuture.mobi/news/106394
Schnellste Nvidia Turing-Karte: Titan RTX mit 24 GB GDDR6 für 2699 €
 
  • Gefällt mir
Reaktionen: r4yn3
Zurück
Oben