Test Radeon RX 9070 GRE (China) im Test: Der perfekte Lückenfüller?

Simonte schrieb:
Die Leistung für ~400€ wär doch i.O oder?
Würde sie auch für 499 € nehmen bzw. empfehlen ... :freaky:
Ergänzung ()

Chismon schrieb:
Das ältere Nischenmodell AMDs (RX 7900GRE) ist sogar insgesamt schneller unterwegs als die RX 9070GRE
Test / Fazit nicht gelesen ?
Insgesamt liegt die "Neue" 5 % vor der "Alten" (siehe Anhang).

"Damit liefern sich Radeon RX 9070 GRE und Radeon RX 7900 GRE ein enges Duell, was die neue RDNA-4-Hardware mit einem knappen Vorsprung von 5 Prozent gewinnt."

Die 7900GRE gab es über einen längeren Zeitraum für 549 - 599 €.
Wenn die 9070GRE dann irgendwann mal für max. 499 € kommen sollte, hätte jene mMn ihre Daseinsberechtigung.
 

Anhänge

  • 9070GRE.jpg
    9070GRE.jpg
    260 KB · Aufrufe: 63
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Die Tests zeigen das eigentlich eher weniger. Es gibt auch bei den Tests von neuen Spielen auf Computerbase kaum Fälle in denen mit 12GB nicht auszukommen wäre.
Es wird noch einige Jahre dauern, bis 12GB einen größeren Unterschied ausmachen, abseits von ultra Textur Settings mit 4K +Upscaling und RT.

Die Regel ist doch zu 99,9%, dass 12GB für QHD und UWQHD mit Upsampling ausreichen und selbst in PT Spielen mit minimal inversiven Eingriffen. Gut die AMD hat effektiv noch weniger zur Verfügung, aber das wird schon recht hochgekocht.
Grundsätzlich war meine Aussage eher so gedacht, schrieb ja sinngemäß, das man sich am besten gleich eine 16GB Karte kaufen sollte, im Umkerhschluss eben keine Karten mit weniger als 16GB.
Ich habe nicht gesagt bzw. nicht gemeint, es würde nicht "reichen".
Da hst du natürlich Recht, das tut es in den meisten Fällen. 99,9% scheint sehr optimistisch aber gut.

Also ich würde mir allein schon bezüglich der Zukunftstauglichkeit keine unter 16GB kaufen.
Es gibt zwei Möglichkeiten und das meine ich auch etwas lustig :-)

1.
Man zahlt viel Geld für ne Graka (also grundsätzlich sind die ja schon recht teuer) mit 12GB und ärgert sich evtl. mal hier und da weil der VRAM nicht ausreicht oder Problemchen macht - mich würde das nerven, auch wenns nur selten der Fall wäre.
2.
Man zahlt ggf. etwas mehr und hat aber auch keine Probleme mehr und vor allem in Zukunft nicht.
Man weiß ja nicht was kommt, wenn sich das schnell arg verstärkt, könnten es schnell von 99% deutlich abfallen.

Ist meine persönliche Meinung - lieber spare ich noch einen Monat, lege 100€ drauf und fertig.
Hab meine Ruhe als irwie mehrere hundert Euro auszugeben und nicht ganz zufrieden zu sein.
 
  • Gefällt mir
Reaktionen: shaboo
TheInvisible schrieb:
Bei AMD ist es ja noch kritischer weil sie auch noch die schlechtere Speicherverwaltung haben als Nvidia.
War mal so. Ist mit RDNA4 aber hinfällig. News dazu absichtlich überlesen ? :rolleyes:
Ergänzung ()

theGucky schrieb:
AMD punktet nur beim Preis.
Gerade die 9070XT ist hier in De sehr günstig mit aktuell rund 660€.
Die 5080 kostet 1090€.
Da fallen die 25% nicht mehr so stark auf, wenn man über 35% günstiger ist.
660 € (9070XT) + 50 % (330 €) = 990 €
Somit ist die 5080 über 50 % teurer + 100 € oben drauf. ;) (oder siehe #113)
 
Zuletzt bearbeitet:
SweetOhm schrieb:
Würde sie auch für 499 € nehmen bzw. empfehlen
SweetOhm schrieb:
p.s. selbst für 499 € würde ich mir die 12 GB Karte 2025 nicht mehr antun !
Die 9070 GRE würdest du nehmen und empfehlen und die deutlich bessere 5070 zum selben Preis natürlich nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Convert
DerRico schrieb:
Da habt Ihr doch beide recht: NV holt aus wenig Chip mit schlechterer Node mehr Leistung.
Welche Node werden bei den RDNA4 und Blackwell chips verwendet?
Allein von der Transistorzahl lässt sich sowas nicht ableiten?
 
SweetOhm schrieb:
Wenn die 9070GRE dann irgendwann mal für max. 499 € kommen sollte, hätte jene mMn ihre Daseinsberechtigung.
Wenn eine 5070 keinen Fuffi entfernt ist, kauft eine 9070 GRE - abseits irgendwelcher Hardcore-AMDler - keine Sau.
 
  • Gefällt mir
Reaktionen: BOBderBAGGER, Wichelmanni und Quidproquo77
TheInvisible schrieb:
Puh, wieder mal ein RAM downgrade neben den 9070ern.
Puh, wieder mal eine Falschaussage. Midrange Alt mit 16 GB vs. Midrange Neu mit 16 GB.
Und die 9070 GRE mit 12 GB ist der "Nachfolger" einer 7700XT mit 12 GB.
 
SweetOhm schrieb:
Test / Fazit nicht gelesen ?

Eher den Test überflogen, zumal ich eine Grafikkarte mit 12GB eher maximal noch als uneingeschränkte Full HD dGPU ansehe und nur begrenzt interessant finde (insbesondere für den angepeilten Preisbereich), denn selbst in WQHD kann es da mitunter schon kriseln in einigen Spielen, siehe auch Raffs/PCGH Video.

Ein Indikator (für die Speicheranforderungen zukünftiger Spiele) ist dann hier im Testartikel auch spätestens die 4K/UHD Leistung:

Untitled.jpg


Diesbzgl. zeigt sich dort insgesamt weniger Leistung als beim GRE Vorgänger, wohl auch wegen des 12 GB kleinen Speichers, und in Zukunft dürfte eher für die 16GB (7900GRE) als 12GB (9070 GRE) Grafikkarte besser altern.

Der Speichergeiz (die zu große Chipbeschneidung bzw. das zu große Binning) ist seitens AMD leider technisch komplett unnötig gewesen (anders als die Bandbreitenbeschneidung, um die Karte unterhlabn einer RX 9070 anzusiedeln), es sei denn man erinnert sich daran, dass es Resterampechipverwertung ist und somit eine passable WQHD Karte dann aufgrund des Speichermangels zu einer Full-HD Karte degradiert wird, schade eigentlich.

SweetOhm schrieb:
Wenn die 9070GRE dann irgendwann mal für max. 499 € kommen sollte, hätte jene mMn ihre Daseinsberechtigung.

Für eine (entscheidend auf den Speicherausbau ausgelegte) noch relativ kompromisslose Full-HD Karte und schon ansatzweise speicherlimiterte WQHD Karte mit Resterampechip ist das m.E. zu viel Geld (die Preisansetzung wurde im oben verlinkten Video ja auch diskutiert), aber da gehen bestimmt die Meinugnen auseinander.

Ich würde eher einer RX 9060XT mit 16GB empfehlen trotz der schwächeren Leistung/Bandbreite als eine RX 9070GRE, die als Nischenmodell mit 12 GB nicht sonderlich gut altern wird.

Wenn eine 16GB Intel Arc B770/750 noch kommen sopllte, würde ich diese vermutlich auch wegen des Speichers ebenso vorne sehen (auch wenn die Leistung darunter liegen könnte) ebenso wie eine teurere RTX 5060Ti 16GB natürlich.

Wo AMD mit dieser Grafikkarte hin will, weiss ich nicht (m.E. ist es ein Produklt für maximale Restechipverwertung, mehr nicht), denn für die gängigen Live Service und eSports-Spiele reichen immer noch 8GB Grafikkarten (mindestens) in Full HD, die immer noch deutlich günstiger als eine RX 9070GRE ist und für WQHD finde ich die Karte schon zu limitiert bzgl. des Speichers, denn da ist man mit einer RX 9060XT 16GB zu einem deutlich niedrigeren Preis m.E. besser aufgehoben.

Wer kauft denn eine RX 9070GRE (12 GB) für anfangs bestensfalls knapp unter 500 Euro, wenn man eine RX 7800XT (16 GB) noch günstiger bekommt, die aber (lange noch) nicht speicherlimitiert ist?

Da muss man schon den Ansatz Grafikkartenkauf zum Stromsparen (etwas bessere Effizienz) oder das medial (hier) hoch gejubelte (bisher wenig implementierte/verbreitete) FSR4 von RDNA4 anführen/abfeiern und ich denke nicht wenigen wird die Langlebigkeit einer Karte (gemessen am Speicherausbau) wichtiger sein als solche Features oder etwas geringere/r Verbrauch/Abwärme.

Zwischen 350 und 400 Euro wäre so eine RX 9070GRE Karte m.E. passend angesiedelt, aber so tief wird AMD mit dem Preis (erst einmal eine ganze Weile) wohl nicht gehen.
 
Zuletzt bearbeitet:
So lange Asus die Prime RTX 5070 regelmäßig für 500€ raushaut, hat die Karte mMn keinen Markt.
 
  • Gefällt mir
Reaktionen: BOBderBAGGER und shaboo
Botcruscher schrieb:
Ein Speicherkrüppel der nur über den Preis eine Berechtigung erhält. FSR4 etc. ist vollkommen egal da durch den VRAM entwertet.

Anscheinend laufen die Navi-Chips ohne große Ausschüsse vom Band, das wird nur die Resteverwertung sein wenn gerade eben dieser Speichercontroller betroffen ist. Da der Rest anscheinend gut performt, hat man eben das Produkt was man wollte - einen aktuellen Chip mit einem defekten Speichercontroller zu einem günstigeren Preis.

Wen das nicht bockt, der kauft eben eine normale 9070.
Am Ende ist es also ganz einfach: es kommt auf den Preis an.

Zwischen den ~360€ für eine 16GB 9060XT und den 600€ einer 9070 ist viel Platz, sollte AMD die Karte bei 500€ oder knapp darunter lancieren, wird sie für einige ein attraktives Angebot.

Aus diesem Grund kann der Artikel nur rein informativ sein - weil die Beurteilung der gebotenen Leistung ganz stark vom Preis abhängt. Und den gibt es nicht.
 
TenDance schrieb:
Zwischen den ~360€ für eine 16GB 9060XT und den 600€ einer 9070 ist viel Platz, sollte AMD die Karte bei 500€ oder knapp darunter lancieren, wird sie für einige ein attraktives Angebot.
Die Hauptkonkurrenten der Karte sind aber nicht 9060XT oder 9070, sondern Nvidias 5070, und da sie dieser gegenüber durch nichts anderes als ihren Preis punkten kann, dürfte das mit 500 Euro verdammt schwer werden.
 
  • Gefällt mir
Reaktionen: BOBderBAGGER, Quidproquo77 und matmartin
pipip schrieb:
N4P bei RDNA4 und irgendein für NV verbesserter N5 bei Blackwell. Die Unterschiede sieht man vor allem bei Dichte und Takt.
 
  • Gefällt mir
Reaktionen: pipip
@DerRico

https://fuse.wikichip.org/news/6439...nhanced-performance-n4p-node/#google_vignette

https://pr.tsmc.com/english/news/2874

https://fuse.wikichip.org/news/6439...ily-with-a-new-enhanced-performance-n4p-node/

Wenn der Quelle glaubt, dürften sowohl 4N als auch N4P ca 6% bei der Density bringen.
„N4 is said to provide a small 6% die shrink through “standard cell innovation” and design rule changes that help realize better area efficiency.“

N4P has the same 6% density increase and 11% better performance or 22% power saving
(Verglichen mit N5)

Somit hat der 4N Prozess eine schlechtere Performance im Vergleich zu 4NP, dürfte aber am Ende nicht der große Unterschied sein. Vermutlich vergleichbar direkt mit N4, wieso vermutlich NV selbst oft von 4nm spricht.

Auch sollte N4 kein Full Node sein, wie es am Ende N3 sein wird. Er basiert selbst auf N5..

Ich lasse mich aber gerne korrigieren, falls ich da was falsch gelesen habe.
 
Sunweb schrieb:
Säuft mehr als der Vorgänger, weniger VRam, langsamer!
Kauft ihr Schafe, Kauft!
Legt Ergebnisse so für sich aus, damit man nicht merken soll, dass wohl seltsame Motivationen dich treiben.

Im Durchschnitt zieht die 9070GRE 36W weniger. Dein Lastspitzen Bildchen ist ganz sicher bewusst gewollte Täuschung von dir.
1752340866348.png

1752340911193.png


Obendrauf kommt, die 9070GRE macht dies mit 3.072 Shader und 12GB VRAM, die 7900GRE braucht 5.120 Shader und 16GB VRAM.
Die 9070GRE wird sicherlich 60€ günstiger sein, als der günstigste Preis einer 7900GRE.
Aber ja, 15 oder 16GB VRAM wären sicherlich viel besser.
Aber für ab ~490€ eine Alternative zu einer 540€ 5070.
 
  • Gefällt mir
Reaktionen: SweetOhm, Wichelmanni und Quidproquo77
SweetOhm schrieb:
660 € (9070XT) + 50 % (330 €) = 990 €
Somit ist die 5080 über 50 % teurer + 100 € oben drauf.
65% teurer um genau zu sein. Deswegen schrieb ich ja, das AMD bei Preis/Performance vorne liegt.

Die 5080 ist aber im Grunde eine ganz andere Klasse die AMD diese Generation nicht bedient.
Und ohne Konkurrenz sinken die Preise leider nicht, auch mit würden die bestimmt nicht fallen >_>...

Näher dran wäre halt die 5070Ti, das ist auch die direkte Konkurrenz die AMD gewählt hat.
Da sind es nur noch 660€ zu 800€, also die 5070Ti ist rund 21% teurer.
In 1440p sind es laut dem Artikel 6-9% (Raster/RT) und in 4k liegt die 5070Ti im Schnitt 8-12% vorne.
Preis/Performance ist AMD also weiterhin vorne, aber trotzdem greifen viele zu Nvidia wegen den Features, auch weil die 9070XT trotz allem schlicht langsamer ist.

Zudem sollte man EINE Sache nicht vergessen, welche die Zahlen durchaus beeinflussen.
CB testet hier mit einer 5080 Founders und bei der 9070XT ist es eine Custom, weil es keine "Made by AMD" gibt. Wäre die 5080 auch eine Custom, wäre die 5080 weiter vorne, um ca 5%.
(Was aber auch kaum einen Unterschied bei Preis/Performance macht, man sollte es aber erwähnen.)
Das gilt aber nicht für die 5070Ti, weil es hier keine Founders gibt.
 
Also als Nachfolger meiner 6750 schaut das nicht wirklich aus, dafür ist die 9070 einfach zu stark.
Die 9070 muss einfach noch mehr im Preis fallen, damit sie interessanter wird.
 
theGucky schrieb:
Die 5080 ist aber im Grunde eine ganz andere Klasse die AMD diese Generation nicht bedient.
Er hat die 5080 und deren Preis ins Spiel gebracht.
Und es kommt ganz auf das Game und die Einstellung an ... ;)
theGucky schrieb:
Näher dran wäre halt die 5070Ti, das ist auch die direkte Konkurrenz die AMD gewählt hat.
Yup :cool_alt:
 

Anhänge

  • Doom WQHD Upsampling.jpg
    Doom WQHD Upsampling.jpg
    213,4 KB · Aufrufe: 63
  • Doom 4K Upsampling.jpg
    Doom 4K Upsampling.jpg
    205 KB · Aufrufe: 65
  • GPU Index 2025.jpg
    GPU Index 2025.jpg
    325,5 KB · Aufrufe: 70
Für mich nicht der perfekte Lückenfüller. Mit einem sehr wahrscheinlichen Preis um die 500 zu nah an der Konkurrenz, die einfach noch das bessere Featurset liefert und etwas mehr Leistung in diesem (Preis-) Bereich. Mit der Vram Bestückung zu sehr auf Kante genäht und zum Vorgänger kann sie sich gerade mal mit FSR 4 Kompatibilität Differenzieren, bei gleichzeitig 4gb weniger vram.
Für den Preis einer 9060xt bei gleichzeitig weniger UVP für eben diese wäre das Fazit ein ganz anderes. Allgemein muss man sagen, zwischen 450 und 700 Euro ist es momentan so schwer wie noch nie die richtige Wahl zu treffen. Einzig die 9070er(16GB) kann man vertreten, aber nicht absolut empfehlen...
 
Zuletzt bearbeitet:
Ich sehe keinen Sinn darin ein Produkt dieser Kategorie in Europa auf den Markt zu bringen. Die Karte dürfte nicht wesentlich mehr als eine 9060XT kosten, um überhaupt attraktiv zu sein.
 
  • Gefällt mir
Reaktionen: shaboo
Zurück
Oben