Test Radeon RX 9070 GRE (China) im Test: Der perfekte Lückenfüller?

Für was steht "GRE"
Get Rich Earthlings?
 
SKu schrieb:
Die Karte dürfte nicht wesentlich mehr als eine 9060XT kosten, um überhaupt attraktiv zu sein.
Wie viel sind denn bei dir nicht wesentlich mehr?
Woran machst du fest, dass dieses Produkt keinen Sinn in Europa ergibt, aber offensichtlich überall sonst auf der Welt?

Im Vergleich zur 9060 XT wären +100€, also 460€ für diesen Markt mit dieser Konkurrenz angemessen. Ich denke sogar, dass mindestens am Anfang 490€ aufgerufen werden.
SH4DOWtheFOX schrieb:
Für was steht "GRE"
Golden Rabbit Edition

Das chinesische Horoskop ist immer jährlich. Zum Jahr des Hasen 2023-2024 gab es die Golden Rabbit Edition.
Offensichtlich will man das Kürzel nun so weiter behalten. Auch wenn in China das Jahr der Schlange ist. 2035 kommt wieder der Hase.
Ergänzung ()

Chismon schrieb:
Wo AMD mit dieser Grafikkarte hin will, weiss ich nicht
Musst du ja auch nicht wissen. Denn die Konkurrenz ist entscheidend und da gibt es Produkte in denen ein günstigerer Preis punkten wird. genau zwischen 5060 TI und 5070.
Chismon schrieb:
Zwischen 350 und 400 Euro wäre so eine RX 9070GRE Karte m.E. passend angesiedelt, aber so tief wird AMD mit dem Preis (erst einmal eine ganze Weile) wohl nicht gehen.
Wer bei seiner Einschätzung den Markt völlig missachtet, dessen Einschätzung kann ich nicht ernst nehmen.
Und wenn man die 2.560 Shader der B580 anschaut, die um 44% von der 9060 XT überrannt wird mit nur 2.048 Shader, dann kann Intel froh sein, wenn eine 4.096 Shader B770 überhaupt eine 9060 XT 16GB erreichen kann.

Nachtrag: Wenn also die B580 um 44% von der 9060 XT überrannt wird, dabei die B580 16W mehr will, möchte ich nicht von dir beraten werden, falls mal eine B770 kommen sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und Convert
Schade, dass AMD die Chance nicht genutzt hat, nur einen 32-bit-Controlller, statt zwei 32-bit controller zu deaktivieren und damit die Karte mit 14GB zu bringen.

Mit 14GB VRAM hätte man hier im Test nicht lesen müssen, dass der Speicher so oft nicht reicht.
 
riOrizOr schrieb:
Irgendwie überzeugt mich die 9070 GRE nicht wirklich. Allein schon deshalb weil sie oft unterhalb der 7900 GRE ansiedelt. Klar vielleicht keine direkte Konkurrenz, aber der markante Name lässt darauf schließen daß es der "alte" Rivale ist, und man oft auch hinter diesem schlechter abschneidet.
Außerdem sind mir die 12 Gig ein Dorn im Auge das konnte auch die alte 9700 GRE besser.
Dazu kommt eine schlechtere Effizienz als die stärkere 9070 (non xt)

Sunweb schrieb:
AMD Manager: wie kann man noch mehr melken?
AMD Designer: JA!

Säuft mehr als der Vorgänger, weniger VRam, langsamer!
Kauft ihr Schafe, Kauft!

Anhang anzeigen 1636843

Anhang anzeigen 1636844

Die Radeon RX 9070 GRE hat ausser dem GRE Kürzel nichts mit der RX 7900 GRE zu tun, sondern ist der Nachfolger der RX 7700 XT und die hatte ja auch nur 12GB.

Convert schrieb:
Schade, dass AMD die Chance nicht genutzt hat, nur einen 32-bit-Controlller, statt zwei 32-bit controller zu deaktivieren und damit die Karte mit 14GB zu bringen.

Mit 14GB VRAM hätte man hier im Test nicht lesen müssen, dass der Speicher so oft nicht reicht.

Dann wäre sie vermutlich zu nah an der normalen RX 9070.
 
  • Gefällt mir
Reaktionen: SweetOhm und Alphanerd
Convert schrieb:
nur einen 32-bit-Controlller, statt zwei 32-bit controller zu deaktivieren
Du meinst 160bit. Dazu müsste man doch auch die Shader kürzen.
Ich habe da echt keinen Plan.
Meine Gedanken sind so.
9060 XT 128bit 2.048 Shader. 2.048 : 128 = 16
3.072 : 160 = 19,2. Ich denke also, dass eine Zahl mit Komma eher die Anmutung einer GTX 970 ist.
2.560 : 160 = 16. Und daran kann man 5 x 2GB Speicher verbauen, oder 10 x 2GB Speicher.

3GB Speicherchips gibt es erst mit GDDR7

Allerdings wäre eine 2.560 Shader RDNA 4 GPU mit 12GB VRAM ein stimmigeres Modell.
Da AMD so wenig wie möglich Geld ausgeben will, gibt es wohl nur 2 GPU Chips. Einen mit 256bit und 4.096 Shader und einem mit 128bit 2.048 Shader. So eine 3.072 und 2.560 GPU hätte wohl einen weiteren GPU Chip benötigt.
Es ist sicherlich günstiger, eine 9070GRE aus dem 256bit 4.096 Chip zu machen. Macht Nvidia ja auch nicht anders. Wird auch so mit CPUs gemacht. Ein 13700/14700 CPU wird aus dem 13900 Chip gemacht. Und diesen 13900 Chip hat man auch in 14900 umgetauft.
So wie auch 6 Kerne Ryzen aus dem 8 Kerne Chip gemacht werden. Oder eben 2x 6 Kerne für den 9900X.
 
Zuletzt bearbeitet:
Abgesehen von FSR4 unattraktiv aus jeglicher Sicht. Dahätte ich eher noch ne gebrauchte 7800 XT vorgezogen.
 
DrFreaK666 schrieb:
Für wen soll die Karte gut sein?
Für Chinesen. Deswegen erscheint sie in China und nicht hier.

Casillas schrieb:
Wie sie gleich wieder los stürmen hier. Man oh man.
Sehe ich genauso. Was viele Kommentatoren nicht bedenken: Diese Karte wurde nicht entworfen, um irgendwelche Löcher im Portfolio zu schließen. Sie wurde entworfen, damit man chinesischen Kunden im Rahmen der von der US-Administration auferlegten Restriktionen die bestmögliche Leistung liefern kann.

Hier wäre mal ein CB-Artikel hilfreich, der die ganzen Restriktionen aufdröselt. Das würde vielen das Verständnis für dieses Produkt leichter machen. Zum Beispiel:
SANDTIGER schrieb:
Leider hat AMD den Speichergeiz von Nvidia bei dieser Karte übernommen .
Das muss nicht sein. Kann auch sein, dass die Restriktionen für die Menge an VRAM verschärft wurden, damit man nicht riesengroße LLMs im VRAM laufen lassen kann. Ob meine Vermutung stimmt, weiß ich natürlich nicht, genauso wie Sandtiger nicht weiß, ob AMD einfach nur geizt. Hier wäre der oben vorgeschlagene CB-Artikel sehr hilfreich.
 
Zuletzt bearbeitet:
Balikon schrieb:
Sie wurde entworfen, damit man chinesischen Kunden im Rahmen der von der US-Administration auferlegten Restriktionen die bestmögliche Leistung liefern kann.
Was für ein Blödsinn. Eine 9070 XT kann jeder in China kaufen. Die 9070GRE kam zuerst nach China, weil dieser Markt größer als Europa und USA zusammen ist und eine Preislücke stopfte, die Nvidia immer noch nicht gefüllt hat.
 
Wo soll denn bitte bei Nvidia zwischen den $429 einer 5060Ti und den $549 einer 5070 eine Preislücke sein, die dringend gefüllt werden müsste?
 
  • Gefällt mir
Reaktionen: Convert
Alesis schrieb:
Was für ein Blödsinn. Eine 9070 XT kann jeder in China kaufen. Die 9070GRE kam zuerst nach China, weil dieser Markt größer als Europa und USA zusammen ist und eine Preislücke stopfte, die Nvidia immer noch nicht gefüllt hat.
Das ist denke ich schlussendlich genauso wenig richtig wie die Sache mit den US-Restriktionen (mit denen hat die 9070 GRE nun wirklich überhaupt nichts zu tun). Die RX 9070 GRE erscheint wie die RX 7900 GRE vermute ich deswegen zuerst in Asien, weil die Europäer und die Amerikaner eher dazu bereit sind, viel Geld in eine Grafikkarte zu investieren. AMD verkauft dir lieber eine RX 9070 XT oder eine RX 9070 als eine RX 9070 GRE. Für AMD ist der finanzielle Aufwand sehr ähnlich, der Gewinn aber schlicht deutlich niedriger. Darum soll in Europa + USA primär die RX 9070 XT verkauft werden, dort liegt hier ganz klar der Fokus.

In Asien funktioniert das eben nicht so gut, vor allem, wenn der Name nicht GeForce ist .Dort braucht es eher eine Budget-Variante. Darum erscheint dort die RX 9070 GRE zuerst und hier später. Die GRE wird es schätze ich hierzulande erst geben, wenn die Verkaufszahlen der RX 9070 XT und RX 9070 zurück gehen oder das Produktionsvolumen so groß ist, dass man die GPUs nicht mehr auf die großen Modelle verteilen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, Chismon, Corpus Delicti und 3 andere
Alesis schrieb:
Du meinst 160bit. Dazu müsste man doch auch die Shader kürzen.
Ich habe da echt keinen Plan.
256 bit hat die RX9700. Wenn man davon 32 bit deaktiviert bleiben 224 bit übrig.
Ergänzung ()

RealMax123 schrieb:
Dann wäre sie vermutlich zu nah an der normalen RX 9070.
Da gibt es noch viele andere Möglichkeiten. Man hätte zum Beispiel ja die TDP auf unter 200W beschränken können, damit der Takt nicht so hoch geht.
 
  • Gefällt mir
Reaktionen: SweetOhm
Balikon schrieb:
Für Chinesen. Deswegen erscheint sie in China und nicht hier.
Habs zwar schon mehrmals erwähnt, aber halt nochmal: Die 7900GRE kam später auch zu uns.
Und wie will AMD die Lücke zwischen 9070 und 9060XT sonst schließen, wenn nicht mit einer teildeaktivierten N48?
 
  • Gefällt mir
Reaktionen: SweetOhm
Convert schrieb:
256 bit hat die RX9700. Wenn man davon 32 bit deaktiviert bleiben 224 bit übrig.
Wären dann 13,714. Geht auch nicht.
Ergänzung ()

Wolfgang schrieb:
Die RX 9070 GRE erscheint wie die RX 7900 GRE vermute ich deswegen zuerst in Asien, weil die Europäer und die Amerikaner eher dazu bereit sind
Ich sehe deine Vermutung nicht weit weg von meiner Meinung. Der Markt für diese Grafikkarte ist in China größer als in Europa und USA zusammen. Und eine Preislücke, als günstigeres Modell ist ja auch geben, die ich auch gemeint habe.
 
Alesis schrieb:
Wären dann 13,714. Geht auch nicht.
Die Shader und das Interface müssen nicht durcheinander Teilbar sein. Keine Ahnung, wie du drauf kommst, dass das irgendwie ein Zusammenhang hat. Du hast zwar selbst geschrieben, dass du keinen Plan hast, aber rechnest trotzdem irgend etwas rum...
Ergänzung ()

SweetOhm schrieb:
Und die 9070 GRE mit 12 GB ist der "Nachfolger" einer 7700XT mit 12 GB.
Laut AMD ist der Nachfolger der 7600 XT und der 7700XT die 9600 Serie

1752400702383.png


Aber das ist eh immer müßig über die Nachfolger zu reden. Das ist eh alles nur Marketing. Die Entwickler bringen einfach neue GPUs und das Marketing versucht die irgendwie einzuordnen weil der Mensch die Sachen gerne eingeordnet haben will...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Convert schrieb:
Laut AMD ist der Nachfolger der 7600 XT und der 7700XT die 9600 Serie

Anhang anzeigen 1637367
Diese Grafik dient lediglich der Leistungseinschätzung.
Allein vom Chip her ist die 9070XT das Derivat zu einer 7800XT, die 9070 (non XT) zu einem imaginären 7800 (non XT) und 9070GRE zum 7700XT.
Finde jetzt auf die Schnelle nicht mehr die Aussage/Site. Wird nachgereicht wenn ich´s nochmal finde.
Und ja, da geb ich Dir Recht, dass eh alles nur Marketing Zahlen/Betitelungen sind ... :freak:
 
Zuletzt bearbeitet:
Alesis schrieb:
Wer bei seiner Einschätzung den Markt völlig missachtet, dessen Einschätzung kann ich nicht ernst nehmen.
Ja gut, ich kann Leute eben nicht ernst nehmen, die für ab Marktstart mit 12GB teilweise limitierte Mittelklassekarten in 2025 solche Preise nahe 500 Euro absegnen.

Intel Arc dGPUs sind i.d.R. (nicht ohne Grund) ein ganzes Stück günstiger als die AMD Pendants oder bieten mehr Speicher für vergleichbares Geld.

Ansonsten wären Karten wie die Arc B580 nicht monatelang ganz oben in den Preis-Leistungs-Charts aktueller Grafikkarten.

Es ist ja schön, dass die Hardware-Industrie solche Kunden hat, die jeden Preis mitgehen, egal wie unausgegoren oder wenig rund die Produkte sind; zum Glück gibt es aber noch andere Leute als Dich, die die Entwicklung wagen kritisch zu sehen und nicht jedem Produktmarketing und angesetzten Preis auf den Leim gehen, geschweige denn "besonders objektive" Markenanhänger sind.

Des Weiteren funktionieren AMD Grafikkarten bei den meisten Käufern (ähnlich wie Intel), auch nur über den Preis, also AMD dGPUs allermindestens 15%, eher/besser 20%, unter dem von nVidia.


Das sehe ich bei Preisen ab ca. 540 Euro für eine stärkere RTX 5070 gar nicht für eine um 500 Euro diskutierte RX 9070GRE zum Marktstart.

Wie erwähnt, 400 Euro würden noch sehr gut passen, maximal vielleicht 450 Euro zum Marktstart, aber da dürften schon einige abwinken, da der Preis grenzwertig (hoch) angesetzt wäre (eben nicht ganz 20% unter dem stärkeren nVidia Pendant/der RTX 5070).
 
Zuletzt bearbeitet:
Alesis schrieb:
.., anstatt zu erklären, wie das funktioniert.
Da gibt es nicht viel zu erklären. Die Shader lassen sich unabhängig vom Interface deaktivieren und umgekehrt und müssen daher auch nicht durcheinander Teilbar sein.
Ergänzung ()

Chismon schrieb:
Ansonsten wären Karten wie die Arc B580 nicht monatelang ganz oben in den Preis-Leistungs-Charts aktueller Grafikkarten.
Im Prinzip geben ich dieser Aussage recht, aber seit der RTX 5060 und dem leichten Preisverfall der RX7600 ist die B580 nicht mal mehr in den Preis-Leistungs-Charts führend.

1752406474567.png


https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

Da muss Intel wieder nachziehen...
 
Zuletzt bearbeitet:
Convert schrieb:
aber seit der RTX 5060 und dem leichten Preisverfall der RX7600 ist die B580 nicht mal mehr in den Preis-Leistungs-Charts führend.
Bei PCGH ist diese das aber immer noch, wenn auch knapp und die sind für mich bisher am objektivsten/fairsten gewesen in der Berichtstattung was Intel Arc Grafikkarten angeht, aber ja, auch bei CB war das viele Monate lang so.

Untitled.jpg


Angesichts dessen wie es Intel aktuell geht und ob deren dGPUs weiter entwickelt werden, dürften die wohl andere Prioritäten haben als Preise weiter nach unten anzupassen.

Es bleibt zu hoffen, dass noch vor Weihnachten Arc B770/750 Karten kommen werden (die sich preislich schnell und passend einpendeln werden), von Arc Celestial dGPUs irgendwann ganz zu schweigen.

Bei bescheidenem festen/unflexiblem Budget bleiben die B580/570 Karten in jedem Fall eine gute Option für Gaming Einsteiger oder vorwiegend Live Service- und eSports-Gamer ohne sehr große Ansprüche.
 
Zuletzt bearbeitet:
Zurück
Oben