News Radeon-Gerüchte: AMD bereitet eine Radeon RX 7600 XT mit 16 GB vor

Philste schrieb:
Es ist nicht wirtschaftlich, jetzt nen 200mm^2 großen N32 GCD, der wahrscheinlich ne ziemlich gute Yield hat, um die Hälfte zu beschneiden.

Das waere dann ein auf 30 CU beschnittener Navi32. Da Navi33 32 CUs hat, ist das tatsaechlich wirtschaftlich nicht sinnvoll.

Aber z.B. ein um ein Drittel auf 40 CUs beschnittener Navi32 (als 7600XT) kann durchaus sinnvoll sein, vor allem wenn er billiger herzustellen ist als der Chip fuer die 6700XT. Natuerlich muessen die Herstellungskosten unter dem Preis sein, fuer den sie das Resultat dann an die Kartenhersteller verkaufen. Aber wenn das so ist (und davon gehe ich aus), und die 6700XT alle verkauft sind, ist es fuer AMD sicher sinnvoller, sowas zu machen, als dieses Marktsegment der Konkurrenz zu ueberlassen.

Es ist voellig sinnlos, sowas mit einem Verkauf des selben Chips als 7700XT zu vergleichen, weil der Chip wuerde nicht als 7700XT gekauft, einfach weil die Kaeufer zum 7700XT-Preis nicht da sind.
 
  • Gefällt mir
Reaktionen: axi
Philste schrieb:
Ich stimme da @Taxxor und Co. zu. Herkelmans Aussage heißt für mich, dass nur noch VRAM/Takt Refreshes drin sind. Also eben jene 7600XT, die wahrscheinlich einfach ne 7600 mit 16GB VRAM im Clamshell Design ist. Oder eben die potenzielle 7950XT mit schnellerem VRAM.

Aber sonst ist das Portfolio halt komplett. Mit nur 3 Dies bleiben halt Lücken. Es ist nicht wirtschaftlich, jetzt nen 200mm^2 großen N32 GCD, der wahrscheinlich ne ziemlich gute Yield hat, um die Hälfte zu beschneiden. Und das wäre die einzige Möglichkeit eine 7600XT anders zu realisieren.
Mit dem, was du schreibst, stimmst du damit doch aber aber @Rockstar85 und mir zu??? Und gerade nicht @Vitche und @Taxxor, die beide (anscheinend, was Taxxor jetzt wirklich meint, liegt noch im Dunkeln) etwas wie von dir skizziertes ausschließen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Irgendeine Karte mit Navi32 wird bestimmt noch kommen. Ob rx7700 oder 7600xt. Im Laptop Bereich gibt es auch noch kein Navi32.
 
  • Gefällt mir
Reaktionen: Mcr-King
@Tornavida Ich nehme meine Aussage über deine angeblich übertriebenene Geldbezogenheit zurück. Darüber kann ich nicht urteilen. Entschuldigung dafür.

Es wäre dennoch ein guter Zug von dir zu verraten, was nun genau deine Probleme mit der RX 6900 XT sind. Mit ihren 1000€ UVP war sie aus Sicht der Preis-Leistung deutlich schlechter als die RX 6800 XT. Dennoch war die RTX 3090 nochmals 50% teurer und zumindest in Rasterisierung kaum schneller.

Mittlerweile sollte die RX 6900 XT gemäß AMDs Fine Wine Eigenheit doch ziemlich gut laufen.
Ergänzung ()

CDLABSRadonP... schrieb:
Diese 6950 ist mittlerweile wirklich lächerlich bepreist. Na klar, dafür soll mehr gezahlt werden als für eine 7800 XT? Eine 7800 XT, die einfach mal 90W weniger frisst, bei der entsprechend selbst kleine Customs sehr ordentlich abschneiden, dennoch nahezu identisch performed und obendrein DP 2.1 bietet?

Wieso sich dabei ein prinzipieller Radeon-Käufer für den Abverkauf statt für die neue Karte entscheiden soll, ist mir schleierhaft.
Absolut. Selbst das beste Angebot für 599€ ist kein wirklicher Schnapper. Irgendwie war es vor 20 Jahren komplett anders. Damals wurde Restware noch zu attraktiven Preisen angeboten. Macht ja auch Sinn, schließlich wollen Händler eigentlich ihre Lager räumen und Platz für neue Produkte machen. Die Zeiten haben sich komplett geändert. Heutzutage wird das letzte Produkt lieber extrem teuer angeboten, anstatt es schnell loswerden zu wollen... Hoffentlich bleiben die Händler ewig darauf sitzen.

Man sieht jedoch an den generell viel zu hohen Preisen der RX 6950 XT, dass die Grafikkarte so gut wie abverkauft ist.
 

Anhänge

  • Screenshot_20240101_112250_Geizhals.jpg
    Screenshot_20240101_112250_Geizhals.jpg
    862,8 KB · Aufrufe: 61
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Quidproquo77 schrieb:
Jemand anderen Nvidia Affinität nachzudichten, aber gleichzeitig Vorteile zu unterschlagen, wie es auch Tigerherz regelmäßig tut, wirkt substanzlos.
Ich argumentiere stets aus der Sicht des Mainstreams, also den Großteil der Gamerschaft. Wer wie du ein RT-Enthusiast ist, für den kommt selbstverständlich nur Nvidia in Frage. Damit habe ich auch überhaupt kein Problem. Nur wenn man Raytracing Ultra (oder gar Pathtracing) heute bereits als wichtiges Kaufargument für eine Grafikkarte im Allgemeinen ansieht, habe ich ein Problem. Weil das bezogen auf die Realität einfach falsch ist. Die meisten Gamer interessiert Raytracing kaum bis gar nicht, sobald die Technik zu viel Leistung in einem Spiel kostet. Das ist Fakt. Der Grund für dieses Verhalten ist, dass der Mainstream weniger Wert auf High-End-Grafik (so wie du) legt als auf den generellen Spielspaß.

Und wo Raytracing in Spielen eher sachte zum Einsatz kommt und deutlich weniger Performance kostet (siehe z.B. Avatar), sind auch AMD-GPUs in der Regel gut zu gebrauchen. Und die Grafikqualität werden nur die allerwenigsten bemängeln. Wobei es beispielsweise im Falle von Avatar eher Meckern auf sehr hohem Niveau wäre. Denn das Spiel sieht auch ohne RT Ultra fantastisch aus.
 
  • Gefällt mir
Reaktionen: adnigcx, Corpus Delicti und Melmoth
Northstar2710 schrieb:
Im Laptop Bereich gibt es auch noch kein Navi32.
Das stimmt und ist einerseits merkwürdig --- andererseits tun sich AMD-dGPUs im mobilen Markt ohnehin seit etwa einem Jahrzehnt schwer. Von daher vielleicht gar nicht sooo merkwürdig.
 
TigerherzLXXXVI schrieb:
Die meisten Gamer interessiert Raytracing kaum bis gar nicht, sobald die Technik zu viel Leistung in einem Spiel kostet. Das ist Fakt
Und bei den Karten wessen GPU Herstellers ist das besonders stark der Fall?
Da du wieder Avatar ansprichst, hier zeigt sich doch auch sehr schön wie viel schwächer AMD ist, wenn RT erzwungen wird, selbst wenn es nur mäßiges RT ist: Eine 4070Ti ist ca so schnell wie eine 100-150€ teurere 7900XTX und damit die bessere Wahl
 
Zuletzt bearbeitet:
???
Manche lesen nur die halben Reviews.

praktisch läufts ganz gut mit der XTX = siehe Anhang:
(und man bekommt Pandora kostenlos mit RDNA3, ... bei NV derzeit nur nen feuchten Händedruck)
 

Anhänge

  • Pandora@FSR3-FG.jpg
    Pandora@FSR3-FG.jpg
    119 KB · Aufrufe: 74
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und TigerherzLXXXVI
GerryB schrieb:
praktisch läufts ganz gut mit der XTX = siehe Anhang:
FG würde ich in Avatar aufgrund der verkorksten Implementierung mit den Kästen um die UI Elemente nicht nutzen
 
Zuletzt bearbeitet:
Taxxor schrieb:
Eine 4070Ti ist ca so schnell wie eine 100-150€ teurere 7900XTX und damit die bessere Wahl
Wenn 6% unterschied für dich ca. Gleiche Leistung ist. Ok.

Dennoch ist die AMD das schnellere Produkt, nicht das bessere. Wenn man es auf dieses Spiel beschränkt.
Taxxor schrieb:
FG würde ich in Avatar aufgrund der verkorksten Implementierung nicht nutzen
Ich kann mich hier absolut nicht beschweren mit meiner 7800xt. Aber wie man auch beim Test lies läuft es auf Nvidia Karten nicht ganz so gut.


Wir wissen aber alle das AMD 1 Generation in RT zurück liegt. Von daher ist eine Diskussion darüber komplett sinnlos.
 
  • Gefällt mir
Reaktionen: SweetOhm
Northstar2710 schrieb:
Wenn 6% unterschied für dich ca. Gleiche Leistung ist. Ok.
Ich wäre verwundert, wenn jemand 103 zu 109 oder 79 zu 85 nicht als ca gleich schnell betrachten würde.
Northstar2710 schrieb:
Dennoch ist die AMD das schnellere Produkt, nicht das bessere. Wenn man es auf dieses Spiel beschränkt.
Wenn’s nur um das schnellere Produkt ginge wäre Nvida ja sowieso vorne, deshalb hab ich bewusst die 4070Ti gewählt weil sie hier mit das beste PL bietet in der oberen Leistungsklasse

Northstar2710 schrieb:
Ich kann mich hier absolut nicht beschweren mit meiner 7800xt. Aber wie man auch beim Test lies läuft es auf Nvidia Karten nicht ganz so gut.
Von der Performance her läuft es schlechter aber das ist ja nicht das Problem. Die Kästen um die UI Elemente in denen alles mit halber Framerate läuft, gibts immer.
 
just for fun geht natürlich auch FG+AFMF


wenn der Moni/TV schnell genug ist, um Das nutzen zu können
dieses Jahr sollen ja einige Geräte mit 240Hz auf den Markt kommen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
10GB vram Karte würde die lücke am besten abdecken. Eien 16Gb Karte wäre aber auch ok, nur wer will das bezahlen.
Andererseits wäre bei 16GB vram das SI nicht so wichtig und durch die 128bit könnte die karte evtl. sogar sparsamer sein als die 10gb variante mit grösserem si .
 
Taxxor schrieb:
Die Kästen um die UI Elemente in denen alles mit halber Framerate läuft, gibts immer.
Das ist eigentlich ein Feature von Amd`s FG damit es keine Probleme mit dem UI gibt. Und ich kann da bei mir kein Problem feststellen. Sehe auch keinen unterschied ob am UI ob FG an oder aus ist.
Ist es möglich das die Nvidia Karten damit nicht so gut klar kommen, so das es eher Auffällt?

Ich würde mir das gerne mal ansehen, gibt es dazu ein video?
 
TigerherzLXXXVI schrieb:
Ich argumentiere stets aus der Sicht des Mainstreams, also den Großteil der Gamerschaft.
Der Mainstream aktiviert auch keine maximalen Rastersettings, spielt viel mehr immer noch mit GTX 1060 oder RX 580 und einer Mischung aus Konsolensettings und darunter.
Worüber du meines Erachtens redest, sind aber aktuelle Karten, die eben beides, maximale RT und maximale Rastersettings vertragen. Mal mehr mal weniger.
TigerherzLXXXVI schrieb:
Nur wenn man Raytracing Ultra (oder gar Pathtracing) heute bereits als wichtiges Kaufargument für eine Grafikkarte im Allgemeinen ansieht, habe ich ein Problem.
Es gibt hinsichtlich der Leistung genau 2 Argumente. Raster und Raytracingleistung.
Ansonsten Speicher, Verbrauch und Software(Features).
Es ist eines von Mehreren.
TigerherzLXXXVI schrieb:
Weil das bezogen auf die Realität einfach falsch ist. Die meisten Gamer interessiert Raytracing kaum bis gar nicht, sobald die Technik zu viel Leistung in einem Spiel kostet. Das ist Fakt.
Und wie viel Leistung es kostet, ist individuell. Die Nutzer kaufen eine aktuelle Grafikkarte und schauen wie viel eye candy sie für ihr Geld bekommen. Ich habe aber nie gesagt, dass Grafikqualität primär den Spielspaß bestimmt.
TigerherzLXXXVI schrieb:
Der Grund für dieses Verhalten ist, dass der Mainstream weniger Wert auf High-End-Grafik (so wie du) legt als auf den generellen Spielspaß.
Aber man wählt doch eine Karte für die Grafik aus. Für den Spielspaß selbst sorgt die Grafik nur begrenzt.
Warum RT bei dir so wenig Stellenwert besitzt, ist für mich nicht erklärbar.
Wenn ich es generell nicht aktivieren kann, weil die Karte es nicht unterstützt. Okay. Aber wenn die Karte es kann, möchte ich doch wie im Rasterizing auch soviel wie möglich zuschalten.
Das gilt auch für Avatar und siehe da, die RTX 4070 ist in Full HD und QHD >20% schneller als die 7800XT und das ist jetzt nicht so wichtig, weil?

Und das ohne alle SSRs zu ersetzen, weniger Strahlen und einem zwar ganz hübschen aber stark eingeschränktem RT. Deshalb wünschte sich Digital Foundry eine verbesserte Implementierung.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Und bei den Karten wessen GPU Herstellers ist das besonders stark der Fall?
Da du wieder Avatar ansprichst, hier zeigt sich doch auch sehr schön wie viel schwächer AMD ist, wenn RT erzwungen wird, selbst wenn es nur mäßiges RT ist: Eine 4070Ti ist ca so schnell wie eine 100-150€ teurere 7900XTX und damit die bessere Wahl
Die RX 7900 XTX ist mit ihrer Rohleistung und 24GB Videospeicher eine relativ zukunftssichere 4K Gaming-Grafikkarte. Ich glaube nicht, dass die RTX 4070 Ti in Avatar mit ihren 12GB ohne Abstriche bei der Texturqualität in dieser hohen Auflösung vernünftig funktioniert. Es reicht bei ihr noch für WQHD, möglicherweise auch für UWQHD, aber dann ist Schluss. Wirklich ein Jammer, denn leistungstechnisch wäre 4K absolut drin.

Zudem hatten wir das Thema schon: Avatar liegt (zufällig) den Geforce-Karten besser als den Radeons. Die reine Rasterperformance ist in dem Spiel bereits deutlich höher, d.h. der Leistungseinbruch durch Raytracing ist relativ gesehen ähnlich bei beiden Grafikkartenherstellern. Die Radeons verlieren prozentual nicht deutlich mehr Performance als eine Geforce.
 
TigerherzLXXXVI schrieb:
Zudem hatten wir das Thema schon: Avatar liegt (zufällig) den Geforce-Karten besser als den Radeons. Die reine Rasterperformance ist in dem Spiel bereits deutlich höher, d.h. der Leistungseinbruch durch Raytracing ist relativ gesehen ähnlich bei beiden Grafikkartenherstellern. Die Radeons verlieren prozentual nicht deutlich mehr Performance als eine Geforce.
Es gibt keine reine Rasterperformance die du beurteilen könntest, denn Hardware RTGI ist immer aktiv und lässt sich auch in den Optionen weder abschalten noch in der Qualität verändern.

Die anderen RT Effekte, die in den Optionen veränderbar sind, sind Software RT, deshalb verlieren die Radeons nicht deutlich mehr, weil die RT Einheiten dafür nicht genutzt werden.

Daher ist es kein Zufall dass das Spiel selbst als AMD Partner Titel deutlich besser auf Nvidia läuft, es liegt schlicht und einfach am erzwungenen Hardware RTGI.
Die verwendete Snowdrop Engine liegt AMD nämlich normalerweise recht gut
 
Zuletzt bearbeitet:
Taxxor schrieb:
FG würde ich in Avatar aufgrund der verkorksten Implementierung mit den Kästen um die UI Elemente nicht nutzen
Das ist einfach nur billig @Taxxor. Es ist mir ein Rätsel wie du all die Jahre zuvor auf AMD-Grafikkarten gesetzt hast und nun nicht in der Lage bist, irgendetwas Positives über Team Rot zu sagen. In quasi jedem deiner Kommentare zu diesem Thema kommen immer nur Negativpunkte. Dass in diesem Beispiel (Avatar) selbst Wolfgang im Test FSR 3 als gelungen und im Grunde ebenbürtig zu Nvidias Lösung ansieht, interessiert dich überhaupt nicht. Kein einziges Wort von dir darüber. Kein Wunder, wenn man hier manchmal die Krise bekommt bei einer derartigen Ignoranz.
 
TigerherzLXXXVI schrieb:
Dass in diesem Beispiel (Avatar) selbst Wolfgang im Test FSR 3 als gelungen und im Grunde ebenbürtig zu Nvidias Lösung ansieht, interessiert dich überhaupt nicht. Kein einziges Wort von dir darüber.
Ich habe ebenfalls im Thread von FSR3 geschrieben dass es an sich in Avatar sehr sauber aussieht und ich selbst mit nur 40 Basis FPS keine Artefakte oder Input Lag Einbußen bemerkt habe. Auch habe ich kein stottern bemerkt was laut Wolfgang mit Nvidia GPUs bereits bei unter 60FPS vorhanden sein sollte.

Also 3 positive Punkte, soll ich den einen Negativpunkt, den es gibt und wegen dem es sich für mich trotz all der positiven Punkte nicht lohnt zu benutzen, nun ignorieren?

Darüberhinaus ist das schlecht umgesetzte Masking bei den transparenten UI Elementen auch keine Kritik an AMD sondern an Ubisoft, denn man hätte es auch besser einbauen können. Auch das hatte ich bereits im FSR3 Thread geschrieben.

Im Thread von Avatar selbst hab ich dann auch gleichzeitig noch bemängelt dass DLSS wieder Ghosting Probleme hat, die es bei FSR seltener gibt.

Aber da sind wir passenderweise wieder beim Thema aus dem anderen Thread, denn in deiner Wahrnehmung ignorierst du natürlich die positiven Dinge die ich über AMD und die negativen die ich über Nvidia sage, daher gebe ich das mit der Ignoranz gerne zurück
 
Zuletzt bearbeitet:
Zurück
Oben