News RDNA 2: Next-Gen-Radeon erscheint vor den Next-Gen-Konsolen

Status
Für weitere Antworten geschlossen.
Natürlich wird man sich preislich bei AMD wieder an Nvidia orientieren.
Wenn ihr hier auf günstige GPUs hofft, sind News zu den Gamingamperes eher interessant, wozu es aktuell NULL Infos gibt, obwohl die Dinger angeblich in 3 Monaten kommen sollen.

Ich muss jetzt aber einen großen Topf mit Kartoffelbrei stampfen, futter dann was, und mache ein Nickerchen.
Also cu ihr Lieben......
 
Zuletzt bearbeitet von einem Moderator:
@matty2580 Ist bei Nvidia doch Standard, mir kommt es immer so vor, als beginnt deren Marketing und Herausgabe von Infos eine Woche vor Release der Karten.
 
Taxxor schrieb:
Die 2070 gibts jetzt so für um die 420-450€, da müsste die 1070 ja nach 2 Jahren bei 320-350€ gelegen haben.

Die 1070 war erheblich günstiger als die 2070. Ich hab kurz vorm Pascal Release eine 980 Ti für 399 € geordert, weil es da einen feinen Stuhl dazu gab. Und bei Release von Pascal hab ich für 0 € das Step-Up Programm genutzt bei EVGA und die 1070 als Custom genommen. Diese hat am Release-Tag 399 € in ihrem eigenen Store gekostet.

Danach sind die Preise durch den Mining-Boom langsam nach oben gegangen. Eine 2070 ging ja zu anfangs erst bei 499 € los, oder waren es sogar noch mehr ? Jedenfalls war die 2070 eine unsinnige Karte. Nichtmal die Leistung der 1080 Ti, und zusätzlich noch 100 €+ teurer als das Vorgängermodell.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Es wird erst Spannend wenn Beide hersteller ihr lineup auf den Markt schmeissen. Vorher braucht man eig gar nix kaufen. Wenn AMD nur so schnell wird wie die 2080ti dann hat man zu einer 2 jahre alten karte aufgeschlossen während Nvidia diesmal den shrink mitnehmen kann um nochmal Hordentlich effizenz mitnehmen kann. AMD kann das Praktisch nur über die Architektur machen während Nvidia praktisch 2 Asse im Ärmel hat.
Bin Jedenfalls gespannt. Aber seit der R9 290X kam AMD nicht mehr wirklich in Schlagweite zu Nvidia.
 
Taxxor schrieb:
…. zwischen der 1070 und der 2070 nach gleicher Zeit nach Release bei den Custom Modellen im Schnitt die 100€ dazwischen, die du mit "über 400" und "über 500" impliziert hast?^^

Die 2070 gibts jetzt so für um die 420-450€, da müsste die 1070 ja nach 2 Jahren bei 320-350€ gelegen haben.

Im Schnitt kann man ca. 40-50 Euro Aufpreis gegenueber den billigsten Custom-Modellen ansetzen (manchmal reichen auch 30 Euro) bis man in die Gefilde der preiswerten und soliden Karten einer Kasse kommt, damit wuerden Deine vorher genannten 70 Euro Differenz dann doch ziemlich zusammen schmelzen ;).

Entscheidend duerfte aber ebenso sein, was die Fertigung kosten wird und da wissen (oder vielmehr ahnen?) wir, das die kolportierte 7nm Fertigung fuer Ampere die Gewinnmarge deutlich verkleinern duerfte im Vergleich zu den 12nm von Turing ("Super" Refresh) GPUs, was aber per nVidia Ideologie nicht hinnehmbar sein duerfte ohne weiter an der Preisschraube zu drehen, es sei denn man ist unter Druck, was ich noch nicht sehe, sondern vielleicht erst dann, wenn tatsaechlich die Leistung des RDNA2 Big Navi Flaggschiffs neutral getestet/offenbart wurde und alle Erwartungen uebertreffen sollte.

Was Deine obige Anmerkung angeht, so befand sich die GTX 1070 ja im Abverkauf und da diese nicht nur m.E. sondern auch von einigen anderen als deutlich attraktiver als die (relativ gehypte und als Desktopversion eher gefloppte) RTX 2060 Vanilla mit den mageren 6GB angesehen wurde und trotzdem leicht guenstiger war (weil nVidia die Pascal GPUs moeglichst gerwinnbringend noch loswerden wollte), laesst sich das ganze (die Preisdifferenz zu einer RTX 2070, die da doch weniger im direkten Abverkaufkonkurrenzkampf stand (weil eine RTX 1080Ti deutlich besser/staerker war und es eine GTX 1080 zu dem Zeitpunkt nicht mehr wirklich gab, da diese ja noch schneller vergriffen war, eigentlich bis auf einige wenige Restposten bevor Turing an den Start ging), relativ schlecht deuten und ist nicht wirklich aussagekraeftig, wie ich finde.

Die GTX 1070 lag am Ende auch so um 350 Euro herum, wenn ich mich nicht irre.

Die Frage, die sich dann auch stellt ist, wie das bevorzugt in Lederjacke gekleidete Idol von nVidia-Fans das wohl sehen wird und ob dann preislich die Karten bewusst niedriger angesetzt werden sollen, wie bei Pascal, dass man trotz Nodenshrink und hoeheren Fertigungskosten ueber die Menge der verkauften Karten mehr Umsatz und Gewinn macht oder ob die Dollarnoten in den Augen dann doch wieder groesser sind und man sich evt. wieder preislich uebernimmt wie bei Turing (was dann wieder einen "Super" Refresh nach sich ziehen koennte) und unser Freund Jen-Hsun (nicht zu verwechseln mit dem wohl einzig prominenten echten "Jensen", ehemalig im Formel 1 Zirkus angesiedelt), meint das anhand des mit den Ampere GPUs gebotenen auch rechtfertigen zu koennen.

Es ist ja nicht so, dass ich gerne mehr als 600 Euro dafuer bezahlen wollen wuerde, aber ich halte das nach wie vor als Einstiegspreisbereich fuer kommende RTX 3070 Karten leider als ziemlich wahrscheinlich.
 
Chismon schrieb:
Die Frage, die sich dann auch stellt ist, wie das bevorzugt in Lederjacke gekleidete Idol von nVidia-Fans das wohl sehen wird und ob dann preislich die Karten bewusst niedriger angesetzt werden sollen, wie bei Pascal, dass man trotz Nodenshrink und hoeheren Fertigungskosten ueber die Menge der verkauften Karten mehr Umsatz und Gewinn macht

Na wenn man mal die Verkaufszahlen der RTX Karten mit Pascal vergleicht, dann sollte man eigentlich Hoffnung haben, dass die neuen GPU's wieder eher in das Preisschema von Pascal kommen. Die RTX Verkäufe sind wirklich schleppend im Vergleich zu Pascal.

Die 1070 war halt einfach attraktiver durch die Leistung einer 980 Ti, die ein gutes Stück teurer war. Daher empfinde ich den Preis einer 2070 / S auch einfach als zu hoch.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Brrr
ZeroStrat schrieb:
Steht nirgends, aber wie synchronisiert man die Command Buffer API-konform?
Welche Konformität würde man denn verletzten?
Command Buffer Submit ist unter DX11 doch sowieso Treibersache und der Entwickler bekommt nur einen abstrakten Intermediate Context oder zusätzlich Deferred Contexts.
Dabei sind Deferred Contexts/Command Lists unter mehreren Worker-Threads DX11-Standard.
Die auch nur Nvidia unterstützt, während AMD und Intel das emuliert auf einem Thread abarbeiten.
Intel hat als "neutrale Mitte" grob die ST/MT-Performance unter DX11/12-Samples untersucht und welche Auswirkungen die Anwendungslast und Thead-Synchronisation hat:
https://software.intel.com/content/...ded-rendering-performance-by-experiments.html

Ich weiß jetzt nicht, ob Nvidia bei einigen Anwendungen die einen Intermediate Context verwenden auch Worker-Threads erzwingt, um die Arbeitslast zu parallelisieren und selbst wenn läuft es ultimativ auf das Gleiche hinaus, abgesehen von der Performance.
 
  • Gefällt mir
Reaktionen: Colindo
GTX1070 konnte man bereits 2016 (Oktober) für unter 400.- häufig bekommen, zb. das sehr gute Custom-Modell von ASUS incl. Gears of War 4.

https://www.mydealz.de/deals/asus-geforce-gtx-1070-dual-8g-8192-gddr5-853824

Die schlechteren Customs von KFA etc. gab es bereits mitte 2016 für ca. 330-350.-
Natürlich musste man ein wenig Glück haben.;)

Das sah bei der GTX1080 ähnlich aus, bereits vor der offizielen senkung der UVP gab es die karte häüfig für 440-460.- (2016)

UVP wurde im März gesenkt https://www.gamestar.de/artikel/nvi...tion-auch-in-deutschland-gesenkt,3310983.html

...und ein paar Wochen später konnte man die GPU problemlos für unter 450.- kaufen, sogar die recht guten Customs.


Bei Turing gefällt mir nur die RTX2080Ti so richtig gut. Ich würde zwar niemals so viel geld für eine blöde GPU ausgeben aber die Karte ist schon richtig fett ! Absolute Ausnahmekarte, ohne nennenswerte schwächen.

RTX2080 ist zwar auch Ok, aber der Vram wird der GPU früher oder später das Genick brechen.
8GB Vram sind zu wenig für diese sehr flotte Karte.

PS : ..und die fabelhafte GTX1080Ti für 720.- https://www.pcgameshardware.de/Gefo...on-Custom-Designs-guenstig-lieferbar-1226393/

Ja, alle drei genannten Modele hatten damals weit und breit keine konkurrenz und trotzdem war NV "so nett" und senkte die UVP :daumen:
Ich denke Huang war damals frisch verliebt und zeigte uns deswegen so viel Herz und Liebe :love: :heilig:

Wie ich bereits geschrieben habe, heute praktisch undenkbar.
Das sind die Preise des Nachfolgers (GTX1080)

https://www.idealo.de/preisvergleich/ProductCategory/16073F873254.html?q=rtx2080&qd=rtx2080

Für das Geld hat man damals das Top-Modell bekommen mit 11GB Vram (GTX1080Ti)
 
Zuletzt bearbeitet:
Vergesst bei der Preisdiskussion nicht, das sowohl bei Pascal als auch Turing nach einem Jahr eine Preisanpassung stattfand. Bei der 1070 und 1080 mit dem Erscheinen der 1080Ti, und bei der 2060 und der 2070 mit dem Erscheinen der Super-Karten. Beide Male haben hier im Forum nach der Preisanpassung viele gesagt, dass "endlich das P/L-Verhältnis stimmen" würde. Also kann man, wenn man kritisch ist, nicht die Release-Preise als Referenz für annehmbare zukünftige Preise hernehmen. Da darf ruhig noch etwas weniger verlangt werden.

7 nm ist ja auch mittlerweile, durch die kontinuierlich sinkende Defektdichte, günstiger geworden.
 
Taxxor schrieb:
Da sie beim Vergleich zwischen GCN und RDNA1 und deren +50% enthalten waren, ist es unwahrscheinlich, dass sie jetzt nicht enthalten sein werden.

Und mit der Annahme, dass sie enthalten sind, ist man doch bereits vorsichtig, ansonsten würde man die Performance ja noch höher einschätzen^^
Wie gesagt, ich wäre mit dolchen Rechnungen vorsichtig denn es könnte ebenso sein das die Taktfrequent im Vergleich zur 5700XT etwas geringer ausfälltund deshalb mehr als die besagten 50% drin wären. Angesichts der diskutierten +5000 Shader wäre das ca. ein doppelter Navi 10 wäre. Das sollte man spätestens mit etwas weniger Takt relativ problemlos in die 300-350W Grenze pressen können und dennoch eine entsprechende Mehrleistung bekommen.
Sollte dies wirklich eintreffen kann sich ja jeder selbst ausrechnen welcher Leistungssprung absehbar wäre.
 
Locuza schrieb:
Intel hat als "neutrale Mitte" grob die ST/MT-Performance unter DX11/12-Samples untersucht und welche Auswirkungen die Anwendungslast und Thead-Synchronisation hat
Sehr interessanter Artikel, da sieht man die Unterschiede zwischen Nvidia und AMD. Man erkennt auch deutlich, dass die Aufteilung der Daten auf mehrere Worker bei DX11 massive Unterschiede bei AMDs Leistung auslöst: Ein Workerthread pro Szene performt deutlich besser als eine Unterteilung des Meshs in einzelne Worker. Ich denke bei vielen Spielen, die auf GCN abgründig schlecht laufen, wird genau das Letztere gemacht.
 
Zuletzt bearbeitet:
Taxxor schrieb:
War meine zweite selbst gekaufte ATI Karte und hatte damals meine 8800GTS 512 abgelöst. 80-120% Mehrleistung je nach Auflösung und AA Settings waren schon heftig dafür dass nur 2 Jahre dazwischen lagen und die 8800 GTS 512 eine der besten Nvidia Karten von 2007 war.
Die war für die Zeit sehr gut
Anhang anzeigen 928529


Bei der 9700Pro von 2002 gehörte ATI übrigens noch nicht zu AMD^^

Ah ok. Zu der Zeit hatte ich eine GTX260² von Kingmod
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben