News GPU-Gerüchte: Die Radeon RX 7600 (XT) soll Ende Mai kommen

Rock Lee schrieb:
Interessant ist dann tatsächlich auch die Erwähnung einer 7950XT. Eventuell macht man doch einen Respin bei Navi31 und versucht den von "Leakern" proklamierten "Hardware-Bug" zu entfernen, um mit einer 4090 gleichzuziehen oder diese sogar zu schlagen.
Oder die RX 7950 XT(X) haben auf den MCDs dann tatsächlich Stapel-Cache drauf. Das wurde ja vorher von der Gerüchteküche auch immer erwähnt, dass die MCDs dafür ausgelegt sind. Mit dem Cache wird die Grafikkarte effizienter. Der Cache beschleunigt die Grafikkarte und reduziert den Stromverbrauch durch seltenere Zugriffe auf GDDR. D.h. man wird dann zusätzlich sogar den Takt der GCDs noch etwas anheben können... Der ist ja nur durch die Leistungsaufnahme begrenzt, der Chip an sich kann ja höher takten...
Ergänzung ()

Arcturus128 schrieb:
Finde ich gut, dass AMD die Einstiegsmodelle zuerst bedient.
Das tut AMD doch gar nicht. Nvidia stellt die RTX4060TI vor und AMD im Anschluss daran die RX 7600XT.
https://www.computerbase.de/2023-03...070-leistung-bringen/#update-2023-05-03T17:03

Der Unterschied zwischen Nvidia und AMD ist nur, dass zwischen High-End und Einstiegsmodelle bei AMD noch eine Lücke ist, während Nvidia diese Lücke nicht hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
DaHell63 schrieb:
Die RTX 4070TI hat also die Rohleistung um locker als 4K Karte zu fungieren...einzig der VRam hindert sie daran.
Dann haben die hier wohl blos keine Lust...am VRam kann es ja nicht liegen.
Okay vielleicht etwas unglückflich formuliert mit "sehr gut" aber zumindest jetzt potentiell brauchbar. Dass die Speicheranbindung etwas ausmacht siehe Abfall der Leistung gegenüber der 3090 und 3090ti in UHD gegenüber 1440p. https://www.computerbase.de/thema/g...#abschnitt_benchmarks_in_spielen_inkl_nextgen
 
Ich kann mir vorstellen das die Karten bei AMD, alles unter einer 7900xt sehr schwer haben werden.

Zwar haben beide, Nvidia sowie AMD in letzter Zeit das Portfolio nach oben hin, mehr oder minder sinnvoll erweitern können, doch gerade bei AMD sind die 6000er Karten noch immer sehr gut kaufbar. Kaufbar im Sinne von genügend Ram, relativ günstig und werden vermutlich auch FSR 3 unterstützen (Vermutung).
Erst wenn AMD hier künstlich kastriert und die Karten vom Markt nimmt, wird es erst einen Grund für die 7000er geben.

Bei Nvidia sieht das ganze wegen dem noch geringeren Ram der 3000er und dem fehlenden DLSS3 anders aus..
 
Ich glaube, dass viele jetzt einfach auf die 7800xt warten, sie könnte ein gutes Argument liefern, um der 4070 Paroli zu bieten.
Und wer nicht warten kann, kauft eben die 4070 oder weicht auf eine 6800/6800xt aus.
 
Skudrinka schrieb:
Ich kann mir vorstellen das die Karten bei AMD, alles unter einer 7900xt sehr schwer haben werden.

Zwar haben beide, Nvidia sowie AMD in letzter Zeit das Portfolio nach oben hin, mehr oder minder sinnvoll erweitern können, doch gerade bei AMD sind die 6000er Karten noch immer sehr gut kaufbar. Kaufbar im Sinne von genügend Ram, relativ günstig und werden vermutlich auch FSR 3 unterstützen (Vermutung).
Erst wenn AMD hier künstlich kastriert und die Karten vom Markt nimmt, wird es erst einen Grund für die 7000er geben.

Bei Nvidia sieht das ganze wegen dem noch geringeren Ram der 3000er und dem fehlenden DLSS3 anders aus..

Ich glaube wir sollten uns keine Illusionen machen. Wenn die neuen Karten kommen, dann werden die alten 6000er aus den Regalen verschwinden. Auch AMD wird bei den neuen Modellen die Preise hoch halten wollen.
 
C0rteX schrieb:
@Calpi

Laut Gerüchten hängt alles am Hardwarebug des Chipletdesigns, der erstmal beseitigt werden musste. Der Softwarefix sorgt bei 7900ern Mal eben für 300 bis 400 Mhz weniger Takt.
Welcher Bug? Quelle?
 
  • Gefällt mir
Reaktionen: Mcr-King
Dawhite schrieb:
Okay vielleicht etwas unglückflich formuliert mit "sehr gut" aber zumindest jetzt potentiell brauchbar. Dass die Speicheranbindung etwas ausmacht siehe Abfall der Leistung gegenüber der 3090 und 3090ti in UHD gegenüber 1440p. https://www.computerbase.de/thema/g...#abschnitt_benchmarks_in_spielen_inkl_nextgen
Die RTX 4070TI verliert von 1440p auf 2160p gegenüber einer RTX 3090TI/RX 7900 XT 5-6%.
Wenn DU Dir die max Benches von PCGH ansiehst, sind das dann wieviel FPS zu einer RX 7900 XT?
2-3FPS was sie verliert? Mit beiden ist aber 4K max nativ, wenn man die FPS ansieht, kaum sinnvoll.
Also entweder anpassen, oder eben FSR/DLSS nutzen. Beides macht aber diese festgefahrenen must have Rankings obsolet.

Für 4K braucht man also laut PCGH schon DLSS/FSR
Raster.jpg

DLSS ist ganz klar besser
DLSS.png

Nutzt man FSR/DLSS frage ich mich wie man nur eine AMD Karte empfehlen kann
FSR vs DLSS.png

...ich geh jetzt erstmal meine RX 6800 entsorgen ^^

Genauso wie hier kann man sich natürlich auch sein AMD-Bias Ranking zusammen suchen.

Es wird sowieso zuviel Wert auf einzelne Ergebnisse gelegt. Je nach Lieblingshersteller sucht man sich die richtigen Tests zusammen und schon hat man seine Bestätigung.
 
  • Gefällt mir
Reaktionen: fullnewb und HierGibtsNichts
  • Gefällt mir
Reaktionen: DaHell63
Cempeg schrieb:
Welcher Bug? Quelle?

Schau Mal beim YouTube Channel von Moore's law ist dead vorbei. Er hat öfters sehr gute Gäste aus der Branche. Allerdings ist er mir manchmal ein wenig zu selbstsicher bei seinen Vorhersagen. Ist ein wenig wie beim Wetterbericht. Eine kleines unvorhergesehenes Ereignis und die Realität sieht ein wenig anders aus. Die Konzerne versuchen gegen derartige Leaks auch etwas zu unternehmen, indem sie zum Beispiel ganz unterschiedliche Samples und Konfigurationen ihrer Produkte an die Boardpartner schicken.

Für mich ergibt das Hardwareproblem durchaus Sinn, aber es sind Insidergerüchte. Das bedeutet, eine offizielle Stellungnahme seitens AMD wird es nie geben, aber das restliche Lineup so spät zu bringen, hat es in dieser Weise noch nie gegeben und schadet AMD auch nur. Also wird schon was dran sein. Das genaue Video kann ich dir nicht mehr sagen.
 
C0rteX schrieb:
aber das restliche Lineup so spät zu bringen, hat es in dieser Weise noch nie gegeben und schadet AMD auch nur.
Naja stimmt nicht ganz gab es schon mal und zur Zeit macht es sicher Sinn die kleinsten zu erst zu bringen davon werden mehr verkauft als bei den 400 und mehr. Da der PC Markt sowieso schrumpft. 😉
 
@Mcr-King

Kann man so sehen, aber in der Regel wird das Lineup von oben nach unten released, damit die ungeduldigen eher Mal zu einem teureren Modell greifen. Die Margen sind bei den größeren Modellen natürlich auch besser. Besonders bei den Flagschiffen.

Wann gab's das schon Mal? In den letzten 3 Gens ist mir ein derartiger Fall nicht bekannt. Ob der PC Markt schrumpft oder nicht, scheint Nvidia völlig egal zu sein, wenn man sich die Preispolitik ansieht.
 
DaHell63 schrieb:
Es wird sowieso zuviel Wert auf einzelne Ergebnisse gelegt. Je nach Lieblingshersteller sucht man sich die richtigen Tests zusammen und schon hat man seine Bestätigung.
habe tatsächlich keinen Lieblingshersteller ^^ hätte sogar viel lieber zu einer AMD Karte gegriffen, wenn ich nicht auf NVHEC angewiesen wäre
 
Die RTX 3060 letzte Generation hatte endlich mal mehr Speicher in die Mittelklasse gebracht, aber so wirklich lösen will man sich wohl immer noch nicht von den 8 GB. Seit 2016 sind 8 GB jetzt schon Mainstream und während die Zahl der Nutzer mit Monitorauflösungen >1080p in den letzten Jahren gut gestiegen sein dürfte, tut sich beim VRAM wenig.

Nun kann man natürlich wieder damit argumentieren, dass es ja immer noch ausreicht, aber a) wie lange? - es fühlt sich nicht gut an, wenn man die Texturdetails runterdrehen muss, obwohl die GPU noch ordentlich Dampf hat und b) es ist ein Henne-Ei-Problem. Wieso sollten Spielehersteller sich die Mühe machen detailliertere Texturen zu erstellen, die mehr VRAM brauchen, wenn das Gros der Spieler die Settings dann nicht nutzen kann?

Aber eigentlich kann es mir egal sein, spiele sowieso keine neune AAA-Titel und der einzige, auf den ich richtig Bock hätte, wäre ein neues The Elder Scolls - und bis das kommt, kann es noch dauern. Lange. Dauern.
Ergänzung ()

Taurus104 schrieb:
Gab dazu letztens erst wieder ein Video von PCGH zum Thema Vram. Die 12 GB in der Leistungsklasse der 3060 war reines Marketing und haben der Karte keine Vorteile gebracht.
Die 12 GB der 3060 waren richtig und wichtig. Bei Verwendung von Raytracing hat in manchen Fällen die 3060 sogar besser als die Ti-Version performt, weil dieser dann teilweise der VRAM ausgegangen ist.
Die Fälle sind eh nicht praxisrelevant sagst du? Kann sein. Aber warten wir nochmal ein paar Jahre und lassen PCGH dann nochmal testen, welche Karte besser läuft, die 3060 oder die 3060 Ti.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: vti und Mcr-King
Beitrag schrieb:
der einzige, auf den ich richtig Bock hätte, wäre ein neues The Elder Scolls - und bis das kommt, kann es noch dauern. Lange. Dauern.
Ergänzung ()
Also keine lust auf das neue elder scrolls im all?
Beitrag schrieb:
Die 12 GB der 3060 waren richtig und wichtig. Bei Verwendung von Raytracing hat in manchen Fällen die 3060 sogar besser als die Ti-Version performt, weil dieser dann teilweise der VRAM ausgegangen ist.
Bei amd geht er nicht aus und? Haha

Beitrag schrieb:
PCGH dann nochmal testen, welche Karte besser läuft, die 3060 oder die 3060 Ti.
Ob die das machen eher nicht 3060 ist trotzdem nix mehr
 
Zuletzt bearbeitet:
@C0rteX
Ok, aber was sollte mich ein Bug jucken der verhindert, dass die Karten auf über 3 GHz takten,
wenn sie eh nur bis 2,5 Ghz spezifiziert sind. Übertakten will ich nicht.
 
Beitrag schrieb:
Die Fälle sind eh nicht praxisrelevant sagst du? Kann sein. Aber warten wir nochmal ein paar Jahre und lassen PCGH dann nochmal testen, welche Karte besser läuft, die 3060 oder die 3060 Ti.
In ein paar Jahren? In ein paar Jahren reicht die Leistung der 3060 nicht mal mehr für Rasterizing 1080p 60 FPS+.
Mit RT ist 3060 heute bereits am Ende, 12 GB hin oder her. Es gibt heute bereits Titel wo die 3060 selbst mit DLSS keine 60 FPS bei aktiviertem RT erreicht. Ob sie dann schneller ist als die 3060 Ti ist dann irrelevant denn wir reden von nicht mehr spielbaren Frameraten.
Ein theoretischer Vorteil der in der Praxis keine Anwendung findet, ist kein Vorteil!
 
  • Gefällt mir
Reaktionen: ThirdLife
Stuffz schrieb:
Wenn das wieder so ein 8-Lane-Krüppel wird, dann sorry, dann wird dieses Jahr halt keine Grafikkarte gekauft.
Als ob es nur diese eine GPU weltweit zu kaufen gibt... du hast doch echt viel Auswahl.
 
  • Gefällt mir
Reaktionen: SonyFriend und ThirdLife
Vielleicht will er nicht mehr zahlen
 
Unter 600€ bekommt man doch nichts aktuelles gekauft. Da liegt das eigentliche Problem. Vor 3 Jahren kam man in der Performanceklasse mit 250€ hin.
 
  • Gefällt mir
Reaktionen: Stuffz
Zurück
Oben