News Radeon RX 9060 XT: Vorstellung am 21. Mai, Marktstart für den Juni im Gespräch

Die 9060XT mit 16GB und die 9060 mit 8GB die GRE wie bekannt mit 12GB die wird,s aber bei uns erstmal nicht geben und eigentlich hab ich jetzt wieder genug neue Graka,s 😎
 
Hatsune_Miku schrieb:
60er reihe stillstand des todes, egal ob amd oder nvidia
Seh ich anders, bei AMD ändert sich von 7000 -> 9000 deutlich mehr, fsr4, mehr RT speed und generell wird die 60er deutlich flotter sein, wie die last gen, nur wenn du es mit Nvidias 4060 vergleichst ändert sich nicht sooo viel. Aber die Karte erinnert mehr an Nvidias 4060er als an die 5060er, weil damals auch mit DLSS kam.
Wobei das meiste von neueren DLSS ja auch auf ner 3060 lief nur Frame Gen nicht, was ne unwichtige Technik grad im Lowend ist.
Also das ist ein riesen schritt für AMD. erinnert schon fast an die erste RTX Karte. Die erste mit K.I. Upscaling von AMD dazu deutlich mehr RT speed.
Ergänzung ()

Auf 8 GB zu verzichten, würde AMD medial und unter Enthusiasten zwar viele Sympathien bringen, aber einen noch niedrigeren Preispunkt unbesetzt lassen.
Ich seh das anders, wenn man die 8gb XT will dann um künstlich massiv hohen Aufpreis für die 16gb zu verlangen, weil Mehrkosten sind wohl 15-30 Euro, man will dann aber sicher mindestens 50 Euro mehr. Man rechtfertigt damit einen Wucherpreis der 16gb Variante mit hoher Marge.

Wenn die einfach nur den Herstellungspreis der 8gb weiter geben, dann macht das maximal 30 Euro aus, wenn nicht weniger, man kann damit dank GDDR6 easy selbst die 8gb 5060xt unterbieten.

Besonders wenn sie wirklich die Codecs weg lassen, außer man will wirklich extrem Aggresiv die Preise setzen ala 200 für die 60, 250 für die 60xt und 280 für die 16gb xt, aber das glaub ich nicht wer würde lieber 380 für ne 8gb XT statt 410 für ne 16gb zahlen? So gut wie niemand, der wo so sparen muss würde lieber zur 300 non-xt greifen.

Es macht nur dann Sinn wenn man die extra 8gb künstlich extrem teuer machen will um sich mit der billigen 8gb raus zu reden das man doch billiger sein kann und irgendwie 300% Gewinn an den 8gb ab ziehen will.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Ich glaube die schöne Karte leidet dann sehr unter den GDDR6 Speicher schade aber mal schauen was die Effizienz macht.
Weil 475Gbit/s(20GBs ) x 66% (192Bit/128Bit) = ca 316Gbit/s ( Sry kann keen Matze nicht dafür hauen :))
Also die 316Gbit/s sind zu wenig wenn Nvidia bei 448Gbit/s landet oder die AMD verbracuht nur 120Watt .
Ich hoffe AMD setzt auf GDDR7 seufz..
 
Zuletzt bearbeitet:
Tornavida schrieb:
Nett von AMD wieder mal NV das Feld zu überlassen und den Vortritt mit der 5060 zu gewähren. 🙄 So sieht kein Unternehmen aus, dass Marktanteile zurück gewinnen möchte. Oder es spielt wirklich keine Rolle, da nicht konkurrenzfähig.
Genau jetzt kauft keiner mehr die 60er Karten da alle Kunden die das jemals vor hatten schon bei NV zugegriffen haben. 🤦
 
  • Gefällt mir
Reaktionen: SweetOhm
Nur weil ich seit 4 Jahren ne GPU mit 16GB besitze, sind 8 nicht perse Mist.
Ist aber auch so, dass der Fortschritt durch DLSS und wie sie nicht alle heißen da ist. Dazu ist die Auflösung in der Zwischenzeit erheblich gestiegen, unoptimierte engines und nicht vor allem ein gewisser Wahn überall 240Hz erreichen zu müssen tun ihr übriges.
Einfach untergemäß.
 
  • Gefällt mir
Reaktionen: TP555
kachiri schrieb:
Ich bin aber noch immer nicht so weit, 8 GB grundsätzlich für Schwachsinn oder Ressourcenverschwendung zu halten.
Es gibt abseits der Bubble halt genug Menschen die eben nicht nur Settings auf Anschlag stellen und es gibt auch genug Menschen, die nicht mindestens WQHD zum neuen Standard erwählt haben.
Für diese Leute ist das noch schlimmer, die wissen überhaupt nicht was für einen Schrott die kaufen. Das Hardware Unboxed Video zur 5060ti 8GB hat gezeigt das selbst 1080p und mittlere Details je nach Spiel richtig mies laufen weil selbst da die 8GB nicht reichen.
Selbst wenn die mal genug sind ist die Karte trotzdem langsamer als die 16GB Version.
Als Fazit konnte man sagen die 8GB Karte war selten auf Augenhöhe mit der 16er, das sagt schon alles.
Eine 8GB Karte sollte 2025 nicht mehr verkauft werden.
 
  • Gefällt mir
Reaktionen: SweetOhm, simosh, Öcher Tivoli und 3 andere
SANDTIGER schrieb:
Ich glaube die schöne Karte leidet dann sehr unter den GDDR6 Speicher schade aber mal schauen was die Effizienz macht.
Weil 475Gbit/s(20GBs ) x 66% (192Bit/128Bit) = ca 316Gbit/s ( Sry kann keen Matze nicht dafür hauen :))
Also die 316Gbit/s sind zu wenig wenn Nvidia bei 448Gbit/s landet oder die AMD verbracuht nur 120Watt .
Ich hoffe AMD setzt auf GDDR7 seufz..
Funzt bei der 9070xt auch mit GDDR6 und deutlich weniger Bandbreite, ich finde irgendwie das man von dem GDDR7 nahezu garnichts merkt bei Nvidia bzw. kaum ein Vorteil hat.
 
  • Gefällt mir
Reaktionen: SweetOhm, SANDTIGER und rasenschach
Ich bin schon auf den promo-fake-UVP für die Presse und das erste Dutzend im Verkauf gespannt.
 
9060xt-32CU-16GB 128Bit
9060-28CU16GB 128Bit
9050xt 28CU 12GB 96Bi
9050 24-26CU abfall 128Bit 8GB
egal wie schnell hauptsache verfügbar und die 12GB Karte nicht teurer wie die 5050 auf GB207 Basis
 
Nagilum99 schrieb:
Als ob jemand,d er solche Kommentare schreibt, Ahnung von Marktanteilen und Wirtschaft hätte.
Märkte existieren auch unterhalb der Oberklasse - genaugenommen sogar der größte Teil.
Am Ende ist das alles pseudo-wichtiges Geluller. Speicher und Anbindung müssen zum Chip bzw. zum anvisierten Marktsegment passen.
Das einzige was hier "spannend" ist: Werden Preis und Leistung zusammen passen?
Wo hat er denn jetzt unrecht mit seiner Aussage? Preis und Leistung passen natürlich nicht zusammen, aber das ist man ja schon seit Jahren gewöhnt und man hat sowieso keine wirkliche Wahl
 
Orok91 schrieb:
Funzt bei der 9070xt auch mit GDDR6 und deutlich weniger Bandbreite, ich finde irgendwie das man von dem GDDR7 nahezu garnichts merkt bei Nvidia bzw. kaum ein Vorteil hat.
Genau. Bzw hat eine 7900xt und xtx z.B. auch mehr Bandbreite, als die 9070er. Die xtx sogar deutlich mehr. Und trotzdem ist sie nicht immer schneller.

Ich behaupte mal, es ist eine sehr bewusste Entscheidung von AMD noch auf GDDR6 zu setzen.
 
  • Gefällt mir
Reaktionen: SweetOhm, Francis B. und Orok91
BlueSkies schrieb:
Die 8GB Version könnte man GPE nennen - geplante Obsoleszenz Edition
Dann müsste sie GOE heißen.
SANDTIGER schrieb:
Ich glaube die schöne Karte leidet dann sehr unter den GDDR6 Speicher schade aber mal schauen was die Effizienz macht.
Weil 475Gbit/s(20GBs ) x 66% (192Bit/128Bit) = ca 316Gbit/s ( Sry kann keen Matze nicht dafür hauen :))
Also die 316Gbit/s sind zu wenig wenn Nvidia bei 448Gbit/s landet oder die AMD verbracuht nur 120Watt .
Ich hoffe AMD setzt auf GDDR7 seufz..
Du vergisst, dass RDNA4 ein Cache-Level mehr als Blackwell hat. Übrigens ist der Trick beim Infinity Cache im direkten Duell mit Nvidia Ada / Blackwell nicht, dass AMD einen L3 hat, sondern dass dieser L3 in Punkto Kapazität und Latenz mit deren L2 mithalten kann. Bei AMD gibt es aber zusätzlich einen kleinen L2 mit dann natürlich richtig guten Latenzen und Bandbreiten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und SANDTIGER
Ich hatte die ganze Zeit immer irgendwie noch eine 9050er Karte erwartet.
Allerdings ist es wohl doch so, dass eine 6700 XT/7700 XT durch die 9070 GRE ersetzt wird. Deswegen wird es doch so kommen, dass eine 9060 XT mit 16GB kommt und die 8GB dann 9060 heißt.

Die GRE wird also alleine im Leistungsbereich einer 4070 sein und deswegen auch 500€ kosten.
Die 60/XT wird bei gleicher Shader Anzahl hier und da mit 16GB etwas rausholen.

Alles in allem werden die Preise und Ausstattung der Radeon ein Angriff auf Nvidia sein. Die 5060 8GB wird aber immer hinter allen anderen sein. Bei gleichen Preis zur 9060 8GB.
 
  • Gefällt mir
Reaktionen: Casillas und SweetOhm
Hatsune_Miku schrieb:
60er reihe stillstand des todes,
Nur wenn man auch NVs Namensschema reinfällt. Der Nachfolger der 3060 Ti ist die 4070 bzw. 5070.
Bei der 4080 12 GB gab es einen Aufschrei, was NV nur machen könnte. Nur bei den anderen Karten fehlte der irgendwie...
Seit RTX 4000 sind die Karten vom Namen her alle eine Klasse nach oben gewandert. Seit RTX 5000 stimmt das sogar für die 5080, wenn auch nur von den Spezifikationen her.

AMD war leider nicht viel besser bei der RX 7000 Generation, bei der z.B. eine RX 7800 XT der Nachfolger der RX 6700/50 XT war.
 
kachiri schrieb:
genug Menschen die eben nicht nur Settings auf Anschlag
Das sehe ich auch so. Oder nicht das Geld haben. Nur weil ich jetzt mit Alter die Kohle habe, heißt das ja nicht, dass ich nicht weiß wie das ist die letzte Mark fürs Hobby zocken zusammenzukratzen. Und ich habe mittlerweile so viel junge Verwandtschaft die zocken, da sind alle Eltern bei der aktuellen Wirtschaft "begeistert" Geld in PC Teile zu stecken...
Was ich damit sagen will, nicht immer sind die ganzen Anti-8GB CBler elitäre Peak-Ultra-4k Verfechter, sondern es geht auch darum gegen diesen Markt anzutreten, aufzuklären und bestenfalls vor falschen Kaufentscheidungen zu schützen.
Wer billig kauft, kauft zweimal - das stimmt im GPU Entry Bereich doppelt und dreifach und das muss aufhören.
 
  • Gefällt mir
Reaktionen: SweetOhm
Meine Glaskugel sagt, dass AMD eine Überraschung raus haut, und die 9080XT mit 24GB GDDR7 veröffentlicht.
Verfügbar ab Lager sofort.
 
Zurück
Oben