News Radeon RX 9070 GRE: Könnte mit 16 GB im September oder Oktober erscheinen

Das ist ja jetzt erst ein erstes Modell, bis AI-NPCs marktreif sind, findet man wahrscheinlich effizientere Wege und kommt mit vielleicht 1,5-3 GB statt aktuell 3-5 GB aus.

Aber selbst wenn man mit 4 GB für AI-NPCs ausgeht würden noch 8GB für Texturen verbleiben, und viele Grafikkarten und noch mehr Notebooks haben auch nicht mehr.

Und in der Mittelklasse kann man nicht Alles haben wollen. Sonste gäbe es ja keine Rechtfertigung für die Oberklasse geschweige denn die Luxus- und Enthusiasten-Klasse mehr.

Für die Kombis:
FHD/WFHD @ 70-100 FPS + AI-NPC
QHD/WQHD @ 40-70 FPS + AI-NPC
QHD/WQHD @ 70-100 ohne AI-NPC
sollte es schon reichen, da kann dann jeder selbst entschieden was er möchte.

Wer UHD/WQHD @ 120-180 FPS + AI-NPC will der soll dann eben 1.799€-3.499€ für eine Grafikkarte oder 2.399€-5.999€ für ein Komplettsystem auf den Tisch legen.
 
RealMax123 schrieb:
Und in der Mittelklasse kann man nicht Alles haben wollen.
Nicht alles, aber Speicher schon, denn der Speicher ist gar nicht so teuer und die Preise für die Mittelklasse sind inzwischen da, wo sie früher schon für Performance bis High-End waren.

RealMax123 schrieb:
Sonste gäbe es ja keine Rechtfertigung für die Oberklasse geschweige denn die Luxus- und Enthusiasten-Klasse mehr.
Argumentierst du jetzt aus Sicht von Nvidia? Ich als Kunde brauche keine Rechtfertigung für die Oberklasse, wenn mir Mittelklasse mit ausreichend Speicher reicht. Der Hersteller, der das liefert, wird gekauft.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
DiePalme schrieb:
Mittlerweile behaupten viele, das mit 8GB soooo viele Spiele gar nicht mehr laufen.
Es wird kritisiert, dass die 8GB für aktuelle und künftige Tripple-AAA-Titel zu wenig sein können. Insbesondere bei einer Anschaffung und Planung AB jetzt und nicht BIS jetzt. Weiterhin werden die Karten mit Raytracing und Frame-Generation beworben, was abermals mehr Speicher kostet und wie man anhand von Tests sehen kann, gibt es durchaus neue (!) Spiele, in denen die Rohleistung von RTX 5060ti 16GB und RX 9060 XT 16GB ausreichend ist, um mehr als 8GB zu füllen, zu nutzen und flüssig in WQHD, teils gar in UHD zu daddeln.

Das ist die Aussage.


Wer diese Spiele nicht kauft, kann sich anderweitig aufstellen. Wer ältere Spiele mit min. 70% Rabatt kauft und damit zufrieden ist, braucht vermutlich weniger Geld für sein Hobby; sowohl im Unterhalt als auch bei der Anschaffung von Software und Hardware.

Dann braucht man sich nicht über eine Metal Gear Solid III Aufarbeitung für 80€ ärgern, die beim Launch und in UHD gerade mal mit einer RTX5090 wirklich flüssig, i.e. 60 Frames, läuft.

1756357696553.png



Die Grafikkarten sind so oder so teuer und etwas mehr Ram ändert daran kaum noch etwas. Dann ist eine teure Karte eben noch mal 10% teurer; on top auf den bisherigen Wucher. Dafür halten die Karten deutlich länger, als früher.
Theoretisch zumindest. Denn gemessen an den letzten großen Spielen ist der Leistungshunger ohnehin absolut irrational.

Nachtrag:
Neu ist außerdem die Dikussion rund um die x8-Anbindung des PCIe. Mit dieser Sollbruchstelle hat man sich früher nicht beschäftigen brauchen. Viele Spiele benötigten noch nicht so viel Speicher und PCIe-3.0 war noch nicht so alt, wie es mittlerweile ist und leider trotzdem noch immer, als Neuware in Köder-Angeboten um 600-700€ als Gaming-PC, verkauft wird.
 
Zuletzt bearbeitet: (Nachtrag)
Tigerfox schrieb:
Tut sie aber nicht. Die 9070 GRE ist nur ganz minimal schneller als die 7900 GRE, erstaunlicherweise auch mit RT, in manchen Titel, in denen ab UWQHD der VRAM zu kanpp wird, sogar langsamer als eine 7800XT, wird vermutlich in etwa den gleichen Preis wie die alte GRE tragen und zieht für die Leistung in Games vielleicht 20-30W weniger. Das ist absolut Stillstand.
Nicht wirklich, da 7900er Highend war/ist und 9070er eben "nur" Mittelklasse (kleinere Chips etc.), von daher hat sich schon was getan. Zudem AMD offen kommuniziert hat, dass Sie in der Generation eine Pause im Highend machen. Da muss man dann nicht jedes Mal aufs Neue, rumwundern, dass da kein 5080/5090-Konkurrent da ist. Auch gegen die GRE mit 12 GB braucht man sich nicht groß aufregen, denn die ist für den freien Markt in Europa gar nicht gedacht. Wenn nun in Europa eine GRE mit 16GB kommt, ist das also ein guter Lückenfüller vom 9060XT zu 9070.
 
RealMax123 schrieb:
Allerdings ist die Grafikkarte generell das kurzlebigste Bauteil in einem Desktop-PC und ganz besonders in einem Desktop-Gaming-PC. Allzulange kann man da nicht in Voraus planen.
Planen kann man das nicht, korrekt. Aber den Punkt mit kurzlebig musst du streichen, meine GTX1080 konnte bis 2024 jeden Titel in WQHD auf Mittel mit guten FPS ausspucken.
Glaube einerseits war bis zur 4090 der sprung jeder GPU-Gen nicht zu krass und dann limitieren Playstation/XBox und Co. auch immer etwas die Spieleentwicklung.
 
Die Performance der Karten steigt doch 1 zu 1 mit dem Verbrauch. Es kann ja nun nicht das Ziel sein Karten mit 400 W bis 600 W im deutschen Hochsommer zu befeuern. Die XFX 9070 Swift steht aktuell auf 245 W, so wie sie ausgeliefert wird. Das sind im kompletten PC mit Monitor bei maximaler Auslastung dann 420 W. Das war schon verdammt heiß im Zimmer vor paar Wochen und ich habe sehr hohe Wände.
 
  • Gefällt mir
Reaktionen: Deinorius
ErnstHaft99 schrieb:
Das ist für die Performance der Karte eh eine Nummer zu hoch.
Das ist schlicht Unsinn. In allen Spielen, in denen laut CB-Test entweder die Speicherbandbreite oder -menge ab UWQHD ein Problem für die 9070 GRE darstellt (Dragons Dogma, Horizon Forbidden West, Dragon Age, Indiana Jones und Spiderman), liefert sie dennoch stets spielbare Frameraten ab, hat aber einen deutlich höheren Abstand zur 9070 als in WQHD.
Folglich dürfte sie mit 16GB und 256Bit ordentlich zulegen und auch in höheren Auflösungen den normalen Abstand zur 9070 einnehmen.
Es gibt andere Spiele, z.B. Black Myth Wukong, wo sie gerade so oder nicht mehr spielbare Fps abliefert, aber unabhängig von der Speichermenge, da alle Karten recht niedrige fps abliefern und der übliche Abstand eingehalten wird.

K1LL3RC0W schrieb:
Nicht wirklich, da 7900er Highend war/ist und 9070er eben "nur" Mittelklasse (kleinere Chips etc.), von daher hat sich schon was getan. [...] Auch gegen die GRE mit 12 GB braucht man sich nicht groß aufregen, denn die ist für den freien Markt in Europa gar nicht gedacht. Wenn nun in Europa eine GRE mit 16GB kommt, ist das also ein guter Lückenfüller vom 9060XT zu 9070.

Die 7900GRE und 7800XT waren nie Highend und haben am Ende auch so 550-650€ bzw. 450-500€ gekostet. Die 9070GRe 16GB dürfte irgendwo zwischen 450€ und 550€ landen, die 9070 gibt es ab 580€. Während die 9070 etwa 7900XT-Leistung für deutlich weniger bietet, ist die 9070GRE kaum schneller als die alte 7900GRE. Das ist Stillstand.

Ob sie ein guter Lückenfüller wird, muss man sehen, das kommt sehr auf den Preis an.
 
Tigerfox schrieb:
Das ist schlicht Unsinn. In allen Spielen, in denen laut CB-Test entweder die Speicherbandbreite oder -menge ab UWQHD ein Problem für die 9070 GRE darstellt (Dragons Dogma, Horizon Forbidden West, Dragon Age, Indiana Jones und Spiderman), liefert sie dennoch stets spielbare Frameraten ab, hat aber einen deutlich höheren Abstand zur 9070 als in WQHD.
Folglich dürfte sie mit 16GB und 256Bit ordentlich zulegen und auch in höheren Auflösungen den normalen Abstand zur 9070 einnehmen.
Bewertungen mit Unsinn nehme ich grundsätzlich nicht ernst.
Höhere Auflösungen kosten Speicher. Logisch, weil X*Y*bit. Da sind wir uns einig.
Dann haben du und ich aber offensichtlich andere Definitionen von spielbaren fps in Zeiten von 144 Hz und mehr Displays sowie dem Framepacing.
Der Punkt mit 256 bit zu 192 bit stimmt nicht. Selbst die 4070 Ti hat auch ein 192 bit Interface und leidet nicht an der Bandbreite, denn auch dort sind GDDR6(X) verbaut. Da die 9070 GRE nur halb so viele Recheneinheiten wie die XT hat, würde das gar nichts bringen.

"entweder die Speicherbandbreite oder -menge"
Nicht die Bandbreite, nur die Menge.
 
Tigerfox schrieb:
--- Vollzitat entfernt --- bitte Zitierhinweise beachten ---
Der Chip der 7900er inkl. GRE ist Highend und die der 9070er Mittelklasse, daher ist ein Vergleich zwischen den beiden nicht sinnvoll. 9070XT und 9070 sind chipmäßig die Nachfolger der 7800XT und 7700XT. Somit ist AMDs aktuelle Mittelklasse auf Höhe vorherigen Highends und somit auch kein Stillstand.
 
Zuletzt bearbeitet von einem Moderator:
Bei einem angemessen Preis wäre eine rx9070 mit 16gb für mich ein ein Hit.
 
ErnstHaft99 schrieb:
Der Punkt mit 256 bit zu 192 bit stimmt nicht. Selbst die 4070 Ti hat auch ein 192 bit Interface und leidet nicht an der Bandbreite, denn auch dort sind GDDR6(X) verbaut.
Es geht doch um den Vergleich zur 9070 GRE 12 MB 192 Bit, da macht sich das Update sicherlich bemerkbar.
Ich hoffe auf entsprechende Testberichte, wenn die Karte verfügbar ist.
 
Zwirbelkatz schrieb:
Es wird kritisiert, dass die 8GB für aktuelle und künftige Tripple-AAA-Titel zu wenig sein können.
Dem widerspreche ich nicht. Aber gemessen an der Masse der Spiele, machen diese Titel nur weniger als 1% aus. Und sehr viele spielen keine AAA Titel. Ich würde auch keine Karte mit 8GB mehr verbauen, schon gar nicht bei den aktuellen Preisen. Nichtsdestotrotz, kann man heute und auch in Zukunft gut mit 8GB leben, wenn man eben nicht auf AAA Titel aus ist.
 
  • Gefällt mir
Reaktionen: Organix
ErnstHaft99 schrieb:
Dann haben du und ich aber offensichtlich andere Definitionen von spielbaren fps in Zeiten von 144 Hz und mehr Displays sowie dem Framepacing.
Es kann so oder so keine einheitlichen Definitionen bei diesem Thema geben, denn was spielbare Frameraten sind, unterscheidet sich von Spieler zu Spieler, genauso auch von Spiel zu Spiel. Bei CS2 können 144 fps das Minimum darstellen. In Einzelspieler-Spielen sind 60 fps ausreichend und mit 120+Hz-Monitoren lassen sich auch 40 fps gut darstellen, solange man auf das Framepacing achtet.
Es ist dabei völlig irrelevant, ob heutige Displays 120+Hz darstellen können. Solange man nicht einen Geldscheißer hat (oder andersrum Prinzipien hat), muss man mit Kompromissen leben. Gerade, wenn man unbedingt mit den höchsten Grafikeinstellungen spielen will.
 
ErnstHaft99 schrieb:
Bewertungen mit Unsinn nehme ich grundsätzlich nicht ernst.
So kann man sich natürlich auch einer Diskussion entziehen.
ErnstHaft99 schrieb:
Höhere Auflösungen kosten Speicher. Logisch, weil X*Y*bit. Da sind wir uns einig.
ErnstHaft99 schrieb:
Der Punkt mit 256 bit zu 192 bit stimmt nicht. Selbst die 4070 Ti hat auch ein 192 bit Interface und leidet nicht an der Bandbreite, denn auch dort sind GDDR6(X) verbaut. Da die 9070 GRE nur halb so viele Recheneinheiten wie die XT hat, würde das gar nichts bringen.

"entweder die Speicherbandbreite oder -menge"
Nicht die Bandbreite, nur die Menge.
Es gibt Spiele, in denen bei bestimmten Auflösungen und Einstellungen die Bandbreite wichtig ist und es gibt auch GPU-Architekturen, die besser oder schlechter mit der Bandbreite haushalten.
Dass das schwierig von der Speichermenge zu trennen ist, wenn eine geringere Speichermenge auch automatisch ein kleineres Speicherinterface und damit weniger Bandbreite bedeutet, sehe ich ein.
Ich nehme an, die von CB im Test der 9070 GRE als bandbreitenabhängig genannten Titel, Dragons Dogma und und COD: BO6 sind dafür bekannt.
Indizien wären natürlich, wenn sich in höheren Auflösungen der Abstand zwischen 4070(S)/5070 und 4060Ti 16GB/5060Ti 16GB, aber zwischen ersteren und 4070TiS/5070Ti vergrößerte. Holen dagegen die kleinen Karten mit 16GB auf die 12GB-Karten auf, liegts er an der Menge. Leider ist selbst die 5060Ti 16GB ab UWQHD gar nicht mehr dabei. Aber auch, wenn der Abstand zwischen 4070(S) mit GDDR6X und 5070 mit GDDR7 größer wird, liegt das wahrscheinlich an der Bandbreite.

Einfacher festzustellen ist sowas mit Speicher-OC. Wenn erhöhter Speichertakt 1:1 in mehr Leistung umgesetzt wird, ohne den Chiptakt zu erhöhen, hat eine Karte zu wenig Bandbreite (z.B. AFAIK 4070Ti und sogar 4070, da die GDDR6-Version ja dem Speichertakt entsprechend langsamer war). Bringt Speicher-OC ohne Chip-OC dagegen nichts, ist die Bandbreite ausreichend (z.B. 4070TiS).

ErnstHaft99 schrieb:
Dann haben du und ich aber offensichtlich andere Definitionen von spielbaren fps in Zeiten von 144 Hz und mehr Displays sowie dem Framepacing.
Ja, haben wir. Mir ist bewusst, dass etwas mehr 30fps nicht mehr so weithin als ausreichend empfunden werden wie noch vor einigen Jahren, aber dreistellige fps-Werte erziehlt man nativ auch heute nur mit den schnellsten Karten in UWQHD und UHD. Die 9070 GRE erreicht in vielen Titeln auch in UWQHD 50, 60 und 80fps.
K1LL3RC0W schrieb:
Der Chip der 7900er inkl. GRE ist Highend und die der 9070er Mittelklasse, daher ist ein Vergleich zwischen den beiden nicht sinnvoll. 9070XT und 9070 sind chipmäßig die Nachfolger der 7800XT und 7700XT. Somit ist AMDs aktuelle Mittelklasse auf Höhe vorherigen Highends und somit auch kein Stillstand.
Mumpitz. Ob der Chip highend ist oder nicht war noch nie relevant. Eine GeForce 6 6800LE/XT hatte auch den "highend"-Chip der 6800 Ultra und war stets langsamer als die 6600GT mit dem "midrange"-Chip.
Die 7900 GRE ist stets nur minimal schneller als die 7800XT und war auch die meiste Zeit nur moderat teurer.
9070 und XT mögen in etwa auf dem Niveau von 7900XT und XTX sein, sie sind aber mitnichten auf dem Preisniveau von 7800XT und 7700XT. Preislich ist die 9070XT etwas unterhalb der 7900XT vor den Abverkaufspreisen, die 9070 bei den letzten Preisen der 7900GRE.
Die 9070GRE wird auf dem Niveau der 7800XT landen müssen, um attraktiv zu sein, bietet aber nur geringfügig mehr Leistung. Vor allem mit RT bietet sie erstaunlicherweise weniger Fortschritt als die stärkeren Karten.
 
elefant schrieb:
Planen kann man das nicht, korrekt. Aber den Punkt mit kurzlebig musst du streichen, meine GTX1080 konnte bis 2024 jeden Titel in WQHD auf Mittel mit guten FPS ausspucken.
Glaube einerseits war bis zur 4090 der sprung jeder GPU-Gen nicht zu krass und dann limitieren Playstation/XBox und Co. auch immer etwas die Spieleentwicklung.
Kommt drauf an auf was man Wert legt.

Finde das ein GTX 1080 in 2017 / 2018 schon unnötig teuer und eigentlich völlig überdimensioniert war, da hätte es eine GTX 970 4GB oder GTX 1060 5GB genauso getan.

Aber so in 2021 / 2022 wäre eine RTX 3060 Ti oder RTX 3070 dann schon deutlich besser gewesen.

Einerseits schon bei der klassischen Rasterleistung ( https://technical.city/de/video/GeForce-GTX-1080-vs-GeForce-RTX-3060-Ti / https://technical.city/de/video/GeForce-GTX-1080-vs-GeForce-RTX-3070 ) aber der allergrösste Unterschied war das die GTX 1080 als GTX eben keine Raytracing-Einheiten hat und deswegen kein Raytracing beschleunigen kann, so das man es entweder im Game komplett deaktivieren muss oder aber es wird massiv CPU Leistung beansprucht was dann die FPS enorm drückt.

Die erste Nvidia Generation mit Raytracing war ja die RTX 2000 Serie und das war eigentich der grösste Quantensprung bei Nvidia in letzter Zeit, aber 2019 / 2020 gab es noch nicht viele Spiele die davon wirklich profitiert haben, deswegen konnte man da auch noch gut mit einer Karte aus der GTX 1000 oder GTX 900 Serie zocken. Und für den Budget-Markt hat Nvidia damals ja sogar die RTX 2000 Serie ohne Raytracing als GTX 1600 Serie aufgelegt.
 
Tigerfox schrieb:
--- Vollzitat entfernt --- bitte Zitierhinweise beachten ---
Für die Beurteilung der Leistungsentwicklung ist das schon relevant. Mittelklassechip auf Niveau Higehend der Last Gen ist halt Fortschritt. Das die Preise nicht passen, steht auf einem anderen Blatt. Das Preisgefüge ist insgesamt eh im Eimer, aber das ist nun einmal so, wenn der Marktführer (Nvidia) so dominant ist und alle mit sich zieht. Die 9070GRE ist halt der abgespeckteste Mittelklassechip der gegen den Vollausbau-Mittelklassechip der Vorgängergeneration (7800XT) antritt, da sollte man halt nicht so viel erwarten. Theoretisch ist die 9070XT als Mittelklassechip auch eher der Nachfolger der 7800XT.
 
Zuletzt bearbeitet von einem Moderator:
Oktober ist fast vorbei und außer der einen News kam nichts. Denke mal, das wird dieses Jahr nichts mehr (wenn da überhaupt je was dran war).
 
Ich sehe nach wie vor nicht, wo sich eine solche GRE sinnvoll positionieren sollte...
 
@Araska Naja so im Bereich um 420-450 EUR würde sie genau in die Lücke zwischen 9060 XT 16 GB und 9070 passen. Das wäre schon sinnvoll. Nur darf sie eben nicht zu spät kommen - deswegen gehe ich davon aus, dass sie gar nicht kommt.
 
Araska schrieb:
Ich sehe nach wie vor nicht, wo sich eine solche GRE sinnvoll positionieren sollte...
Wie bei allen GRE Varianten, ist diese vorwiegend für den asiatischen Markt. Was dann noch zu uns herüber schwappt, sind Abzweigungen, Umleitungen durch Reseller und Partner bzw. Überbestände.
Der asiatische Markt hat wenig mit unserem Markt gemein. Es gibt dort auch unglaublich viele Marken von denen wir hier noch nie gehört haben und umgedreht.
 
Zurück
Oben