Test AMD Radeon RX 7600 XT im Test: 16 GB Speicher für die Full-HD-Grafikkarte

Hallo zusammen,

@Apocalypse
Apocalypse schrieb:
Die Arc A770 gibt es bei Intel auch schon mal unter 300€
Ganz ehrlich, die Intel-Funzeln zählen für mich nicht. Wer sagt, daß denen nicht Morgen Früh einfällt, das Ganze wieder einzustampfen? Ich meine, das wäre ja nicht das erste Mal. Und vor allem, deren Treibersupport und der Treiber als solcher sind eine mittlere bis größere Vollkatastrophe.

Da ist das war wir bei AMD oder Nvidia in der Vergangenheit manchmal bei ihren Treibern meckerten ja geradezu eine Wohltat.
Apocalypse schrieb:
Mindfactory, NBB.de, etc
Aber doch nicht für 240 €. Lies nochmal nach. Er hat sich da natürlich verschrieben, aber deshalb fragte ich ja nach, weil ich Bauklötze staunte daß die für 240 € zu haben sein sollte.

@Xes
Xes schrieb:
Man kann mit deutlich schwächeren Karten auch prima in QHD spielen.
Das ist doch klar. Es kommt halt darauf an, was man als Ruckeln empfindet und vor allem, welches Game überhaupt. Das kommt ja noch dazu.

Aber man muß auch erwähnen, daß bei vielen Games auch flüssiges Spielen unter der Auflösung noch möglich ist, wenn man nur einen einzigen Detailschalter zurück nimmt. Mit mancher Detailrücknahme erzielt man echt horrende Performancegewinne, deren Detailrücknahme man dann im Spiel selbst nicht einmal wahrnimmt.

@Mcr-King
bis jetzt war die einzige 16GB GPU unter 350€ von Intel dass sollte uns zu denken geben.
Da mach dir mal keine Sorgen. Selbst Schuld wer da zugreift. Abseits von Leuten wie uns sind die Probleme mit den Treibern von denen kaum bis gar nicht bekannt. Da wird der Preis und die Werbung gesehen und gut ist.

Ganz abgesehen davon daß es denen Morgen einfallen könnte, das Ganze einzustampfen. Ist ja nicht so, wie wenn das noch nie passiert wäre bei denen mit einer Produktlinie.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Miro Musashi und Apocalypse
Wenn die 7600 xt auf 299 Euro fällt wäre sie nicht schlecht aufgestellt
 
  • Gefällt mir
Reaktionen: Chrissssss, Luxmanl525, Mcr-King und eine weitere Person
Luxmanl525 schrieb:
Aber doch nicht für 240 €. Lies nochmal nach. Er hat sich da natürlich verschrieben, aber deshalb fragte ich ja nach, weil ich Bauklötze staunte daß die für 240 € zu haben sein sollte.
Die rede war von 240€ Aufpreis zur 400€ 7700xt. Passt ja dann eh, wenn das schon geklärt war.
Ergänzung ()

Luxmanl525 schrieb:
Ganz ehrlich, die Intel-Funzeln zählen für mich nicht. Wer sagt, daß denen nicht Morgen Früh einfällt, das Ganze wieder einzustampfen?
Also die Treiberprobleme wären für mich das größere Problem, die Performance ist ja ganz okish für den Preis, iirc bei RT sogar besser als AMD, 16GB gibt es auch, bleibt zwar das Problem das die Treiber nicht gut genug sind um verschmerzen zu können das Intel eventuell nächste oder übernächste Generation den Markt verlässt. Wobei umgekehrt ... das mag Microsoft bei der Xbox auch tun oder AMD ebenso.

Firmen die nach auf die Sparte angewiesen sind und die wo anders gerade viel mehr Geld verdienen haben als immer das Problem dass Produkte bei fehlendem Erfolg auch schnell wieder eingestellt werden können.

Aber ja, mit den Treibern würde ich es auch niemanden vorschlagen wollen, aber die Produkte an sich gibt es, bei Nvidia und AMD muss da leider noch ein wenig an der Preisschraube gedreht werden, wobei der vorteil von 16 statt 8GB sich jetzt auch in Grenzen hält und 12GB eigentlich für die Einstiegsklasse auch reichen würden. Aber natürlich hat weder AMD noch Nvidia da den passenden Bus für Gewählt, man wollte halt 8GB Karten noch verkaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525 und Mcr-King
Luxmanl525 schrieb:
Ganz abgesehen davon daß es denen Morgen einfallen könnte, das Ganze einzustampfen. Ist ja nicht so, wie wenn das noch nie passiert wäre bei denen mit einer Produktlinie.
Keine Angst dass machen sie nicht da bin ich mir sicher diesesmal, da sie auch im Ki Sektor mit spielen wollen oder im Handheld Bereich wo Nvidia ja nix zu melden hat. 😉

Denn Ki geht nur mit GPUs und GPUs müssen dafür auch im Gaming Bereich gut laufen sonst klappt dass nicht.

Musste Intel noch lernen und naja ich bin schon beieindruckt von Intel was sie mit mager Budget da raus geholt haben.
 
Luxmanl525 schrieb:
Ganz ehrlich, die Intel-Funzeln zählen für mich nicht. Wer sagt, daß denen nicht Morgen Früh einfällt, das Ganze wieder einzustampfen? Ich meine, das wäre ja nicht das erste Mal. Und vor allem, deren Treibersupport und der Treiber als solcher sind eine mittlere bis größere Vollkatastrophe.
Das das immer wieder kommt. 🤦
Nein, die GPUs stampfen sie nicht ein. Intel braucht GPUs für ihr Server-Geschäft und das "Braucht" muss und kann man in sehr großen und fetten Buchstaben schreiben. Weil sie schon vor ein paar Jahren gesehen haben, das ihnen dieses Geschäftsfeld auf lange Sicht verloren geht. (u.a. dank ARM, GPU Computing, immer mehr Servern und Super-Computern oder wie aktuell KI-Einheiten auf GPUs)
Und in der GPU Entwicklung fallen die Gaming Grafikkarten quasi nebenher vom Tisch und da haben sie mMn auch von Nvidia gelernt, das die Gaming-Kunden von heute, die Professionellen-Kunden von morgen sind.
 
Hallo zusammen,

@Fresh-D
Fresh-D schrieb:
Das das immer wieder kommt. 🤦
Nein, die GPUs stampfen sie nicht ein.
Du hast meine Silben falsch interpretiert. Ich habe lediglich eine Frage aufgeworfen, gespeist aus einem Szenario, welches nun einmal nicht von der Hand gewiesen werden kann. So einfach ist das.

Wohingegen du das wirkliche Momentum in Form der nun einmal nicht zu bestreitenden mangelhaften Treiber der Intel GPU`s vor läßt.

Aber egal wie. Fakt ist daß ich eher zu GPU`s selbst mit leicht erhöhtem Preis rate, bevor ich so etwas empfehle, wie Intel es derzeit nun einmal dem Kunden anbietet im GPU-Bereich. Vorr allem wegen den unzureichenden Treibern.

@Mcr-King
Mcr-King schrieb:
Keine Angst dass machen sie nicht da bin ich mir sicher diesesmal, da sie auch im Ki Sektor mit spielen wollen oder im Handheld Bereich wo Nvidia ja nix zu melden hat.
Ich habe das lediglich angeführt, weil es ein solches Szenario nun einmal gibt bzw. gab. Und dann wird etwas völlig außer Acht gelassen. Daß sie den jetzt beschrittenen Weg nämlich wieder verlassen bzw. auf Eis Legen und denen was anderes einfällt. Siehe u. a. Abschnitt.

Persönlich sehe ich deren Treiberproblematik auch weit problematischer. So daß ich eher zu einer GPU mit Aufpreis raten würde, bevor ich mir sowas quasi unfertiges antue. Jedenfalls zum jetzigen Zeitpunkt und mit Sicherheit auch noch länger.

@Apocalypse
Apocalypse schrieb:
Also die Treiberprobleme wären für mich das größere Problem
Stimme zu 100 % mit dir Überein. Die besagte Choose nannte ich halt auch nur, weil sie nun einmal auch sinnbildlich für Intel steht bzw. ist. Ist ja nicht das einzige was sie schonmal eingestampft haben. Natürlich gibt es auch Beispiele wo sie was eingestampft haben, dafür aber was richtig gutes aus der Schublade kramten - Core2 z. b. -.

Jedenfalls bin ich mir in jedem Fall bei Intel nicht so sicher, ob das wirklich Bestand hat, wie z. b. bei Nvidia oder AMD. Erst Recht wenn sie von diversen Investoren Druck bekommen. Das ist nun einmal eine ganz andere Linie wie bei AMD oder Nvidia.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
Mcr-King schrieb:
Was Texturen kosten fast null GPU Power und dafür um so mehr VRAM und nee "The last of us" Hogworts Lagecy und Resident Evil profitieren Massiv auch eine RTX4060 Ti 8GB Krüppel kommt da an ihre Grenzen.
Das liegt aber eher an schlechter Optimierung als an dem Problem was du und viele versuchen zu implizieren. DAS ist das wahre Thema.
 
ja der gpu markt hat ein problem
Das liegt aber nicht an Gier oder inflation sondern schlicht an fehlender Konkurrenz.
Amd kann derzeit nicht mithalten in high end und das ist nur die rtx4090 gaaanz alleine.

Die Abstände sind zudem in benchmarks viel zu gering das liegt primär am cpu limit
Eigentlich müssten jegliche Journalisten bzw reviewer die sich so Nennen alles was an Anforderungen ein spiel hat klar ausschöpfen um das maximum darzustellen
tun aber die meisten nicht weil da rauskommt das die meisten stock keep units unspielbare fps haben
Anstatt das man sagt man MUSS die Regler nach Links Stellen

also wer hat schuld
Klar die Spielentwickler die die performance der spiele nicht mehr durchtesten und nicht an derzeitigen hardware Anpassen. Was oft Speichermanagement ist.
Daher reicht es heute nicht mehr aus Spiel a fps vs fps zu jeder gpu zu machen. Quantität bringt hier nix.
Man kann aber auch nicht nur wenige Sku miteinander vergleichen um ein Bild zu bekommen wie was performt

Die Lösung ist man fügt hinzu was ne starke Relevanz hat
GPU load, vram Belegung , Stromaufnahme relativ zur tbp, fps und min Settings zu maxed settings.
Den eins ist sicher Grafikdarstellung sind lineare Prozesse und sind latenzbezogen sprich auch Speichermenge und Geschwindigkeit.
Das hat zur folge das man die spiele die man vergleich mit den gpu im Grunde aufgeteilt werden müssen in Erscheinungsjahre und genres, derzeit wird das nach Beliebtheit bzw Anforderung gemacht.

Mir sind die spiele die da verglichen werden relativ egal es geht um das Verhältnis gpu vs gpu aber keine Angabe zu gpu load vram Belegung und tbp sowie Takt. (Für den vergleich der gpu generation)

Was man machen müsste

Erstens immer Spielbezogen berichten
Zweitens und das wird wichtig neue gpu gen so vergleichen immer die gleiche Serie mit Hinweis was Referenz ist (high end sku) und nur die spiele die dem letztem Jahr herausgekommen sind und die gpu's fordert.
Immer gpu load angeben zu den fps
ne Tabelle farbkodiert
Horizontal Spiel mit settings als link
vertikal gpu Modell
Kästen gpu load fps vram Belegung link zu tbp und Takt.
Farben Grün hellgrün gelb rot ist ein Hinweis zu frametimes bzw vram Belegung

ne idee wäre es das aufs geld zu fixieren aber kein muss.

natürlich hat nicht jedes Jahr ein spiel die beste Grafik oder forderndeste Grafik darum die gpu load vs fps

Also wieviel Spiele oder besser Jahre sollte man einplanen fürn test von einen gpu release das kann sehr viel aufwand bedeuten.
Spiele pro Jahr begrenzen auf 5-10 insgesamt zurückreichend 3 Jahre Diese spiele aber auch getestet mit maxed und min Einstellung. Und das in einer Auflösung
Und nur die high end gpu mit der maximalen Anforderung 4k. Hier wird die gpu load entscheidend

Sämtliche test von ner alten Plattform wegzuwerfen nachdem das Testsetup neu ist macht kein sinn insbesondere wenn die gpu load ausgeschöpft ist.
Dann macht man ein Test mit der schnellsten gpu mit dem forderndsten Spiel mit gpu load und vergleicht die Plattformen.
ich sagte doch gpu sind linear

insgesamt ist mir der Fokus gpu brand vs gpu brand völlig egal. Am ende geht es um Preis Leistung und da muss man die Anforderungen vergleichen nicht wer den größerem Lümmel hat

Zu der Spielauswahl, das wird nicht einfach sinnvoll wäre von so vielen spiele genres abzubilden die dem letzten Jahr erschienen ist.
also so
3d person action
3rd person rpg
3rd person action adv
3rd person renn arcade
1st person shooter
1st person action
1st person rennen arcade
1st person rennen sim
1st person rpg
1st person action adventure
3d Strategie Echtzeit
3d Rundenstrategie
3d Wirtschaftssimulation
3d simulation
2d simulation
2d Plattformer
2d Runden Strategie
2d rennen
3d puzzle
2d puzzle
Diese Auflistung mit der Anzahl an spielen dahinter für das Jahr mit maximale gpu load in maximalen Einstellung bei 4k 1440p und 1080p
Wen man für jedes genre ein spiel nimmt mit Angabe zur game engine wird es aufwendig.

Anmerke letztes Jahr kamen über 300 Spiel heraus eins der größtem Spielejahre die es je gab. (2023 350 games)
Die norm sind pro Jahr etwa 150 die niedrigste release Jahr war mal 100 spiele
Natürlich wird heute durch dlc vieles verwässert aber am ende kommt das hin.

wann zählt ein spiel zu einen Jahr? Immer dann wenn Technik update addon und dlc addiert werden die Inhalte bringen die nicht kosmetisch sind.
Ausgenommen werden sind Online Multi Player basierende spiele. Server gestützte Singleplayer spiele (mmo und pve).
Das sollte immer als Einzeltest mit maxed settings high-end mid class entry gpu genommen werden das wären aktuell 6 gpu.

Hier liegt der Fokus auf das Spiel und die Aussichten wie lange das noch online ist.

Wie definiert man die gpu Klasse
anhand des chips und der perf
folgende aktuelle situation

high end ad102 rtx4090 63tf 100%
obere Mittelklasse ad103 rtx4080 super, n31 rx7900xtx ~39tf-37tf 61%-58%
mid class ad104 rtx4070, n32 rx7800xt 22tf 34%
entry ad107 rtx4060 amd n33 rx7600xt 12tf-13tf 19%-20%

Das war mal anders Vorgänger gen war das so

high end rtx3090 27,4tf rtx3080ti 26,7tf =100%-97%
obere Mittklasse rtx3080 21tf rx6900xt = 22tf 76%-80%
Mittelklasse rtx3070 15,3tf rx6700xt =12,2tf 55%-44%
entry rtx3060 9,2tf rx6600xt 9,8tf = 33%-35%

amd konnte nicht konkurrieren naja fasst den die rtx3090 wurde in den seltensten Momenten ausgereizt was an den Spielen lag von 2021 dazu kam eine chipknappheit und dem mining boom was die preise explodieren ließ.
Die letzten 3 Jahre waren abnormal und es gab so was noch nie

Erst seit 2022 hatte es sich P/L angefangen zu normalisieren und 2023 waren die preise endlich da wo sie sein müssten nach 2020 ohne diese Sondersituation
was ich 2021 prophezeit habe


Das letzte mal das amd sowie nvidia gleichauf in perf waren war 2010
HD5970 1,85tf (699$) vs gtx580 1,92tf (499$) also 96% vs 100%
Euro - dollar 1€-1,39$ inflation seitdem 33%
Euro Kurs heute 1€-1,08$
Seitdem sind die preise explodiert der Rest ist Geschichte
Aus spaß 2010 entry gpu (gtx460 vs HD5770) )180€ und 120€ heute müsste das 240€ und 170€ sein ist es aber nicht.
Das liegt zum teil an den kosten gpu 2010 Produktion um die 43$ aib kosten und Handel Endkundenpreis möglich ab 120$
Heutige kosten entry gpu ab 100$ zahlt der aib Und am ende sind es Endkundenpreis ab 210$ (229€) reale preis derzeit 269$ (300€)
Das verdanken wir alle von der gier vom mining 2021-2022

Sei es drum zum vergleich bei gpu Test wäre mal ne Sortierung in Tabellen Sinnvoll "gpu's sind linear". Dafür braucht es die Werte gpu load vs fps vs tbp und vram Auslastung.
P/L ist schwierig wenn man raten muss was wieviel bringt

Einordnung der gpu
als entry ist immer die Konsolen specs gemeint die aktuell sind
2020 an ist das die ps5 10,5tf 1080p 60fps
2024 ist das die ps5 pro 20,6tf 1080p 60fps
Das wird sich nicht sofort also ab nächstes Jahr in spiele manifestieren aber fasst, ab 2026 wird das das minimum werden für den einstieg am pc

aktuelle Lage q1 2024 = preise
ps5 550€ 12gb game 16gb insgesamt 448gb/s
rtx3060 12gb 290€ 9,2tf 360gb/s
rx7600 8gb 269€ 12,5tf 310gb/s (Texturen müssen reduziert werden)
rtx4060 8gb 300€ 11,5tf 288gb/s (Texturen müssen reduziert werden)
rx7600xt 16gb 360€ 13,1tf 310gb/s (P/L tipp)
rx6700xt 12gb 350€ 12,2tf 448gb/s
rtx4060ti 16gb 460€16gb 16,1tf 288gb/s
rx7700xt 12gb 450€ 18,6tf 652gb/s
ps5 pro ab q4 2024 599€ 20,6tf 576gb/s

Ausblick
ps6 ab q2 2027 499$ 40tf 32gb
Dann wird es Probleme geben

Die Konsolen unterstützen noch kein volles dxr das wird sich ändern ps5 pro könnte das schon intrigiert haben.
Ne neue gpu wird bald Pflicht

ich würde das auch selber zusammenzimmern aber dafür fehlen mir zwei wichtige dinge das geld für die gpu's und Zeit
Teilweise setze ich das um anhand meiner gpu Sammlung und meinen Spielen die sehr zahlreich sind. Hab nen breiten Geschmack. ausgenommen sind mmo und online basierende Sachen.
Spiele mit fps cap (besitze ich natürlich macht aber kein Sinn zu benchen)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Luxmanl525 schrieb:
Du hast meine Silben falsch interpretiert. Ich habe lediglich eine Frage aufgeworfen, gespeist aus einem Szenario, welches nun einmal nicht von der Hand gewiesen werden kann. So einfach ist das.

Wohingegen du das wirkliche Momentum in Form der nun einmal nicht zu bestreitenden mangelhaften Treiber der Intel GPU`s vor läßt.

Aber egal wie. Fakt ist daß ich eher zu GPU`s selbst mit leicht erhöhtem Preis rate, bevor ich so etwas empfehle, wie Intel es derzeit nun einmal dem Kunden anbietet im GPU-Bereich. Vorr allem wegen den unzurechenden Treibern.
Ich wiederhole eben nicht das simple Treiber Bashing, wenn es anscheinend User gibt, bei denen es einwandfrei funktioniert. Ich würde auch zur Intel GPU raten, wenn die Spiele/Software das hergeben.
Wie mangelhaft die Treiber sind hängt jeweils von dem Spiel/der Software ab. Klar, Intel hat vor allem bei den Spielen einen riesigen Berg abzuarbeiten den sie, so prophezeihe ich mal, nie zu 100% erfüllen werden können. Einfach weil es so viele Spiele gibt, aber wie es scheint tun sie alles um das zu ändern. Alle eher nicht aktuellen Spiele werden ihnen schon gemeldet und diese werden dann auch gefixt, wie man wieder am neuen Treiber Release, mit vielen Verbesserungen für alte Spiele, sehen kann.

Und btw. in deinem Post, den ich zitiert habe, hast du eben nicht Unterschieden zwischen Hardware und Software. Erst am Ende geifst du das Treiber Thema bzw. den Support auf und das kann man dann auch so lesen, dass du erst Hardware und Software gemeint hast und später das Treiber Thema noch angehängt hast.
 
  • Gefällt mir
Reaktionen: Mcr-King
Luxmanl525 schrieb:
Ganz ehrlich, die Intel-Funzeln zählen für mich nicht. Wer sagt, daß denen nicht Morgen Früh einfällt, das Ganze wieder einzustampfen? Ich meine, das wäre ja nicht das erste Mal. Und vor allem, deren Treibersupport und der Treiber als solcher sind eine mittlere bis größere Vollkatastrophe.
Man muss aber eingestehen, das Intel stetig die Treiber verbessert. In den Nachtests schneiden sie generell deutlich besser ab als zu den Release Reviews. Und teilweise ist es erstaunlich, was sie noch an Performance herauszaubern können.
Einstampfen werden sie es eher nicht. Grade auch wegen KI. Da bemüht sich ja Intel auch stark mitzumachen und GPUs bieten sich als Grundlage dafür an.
Aber allgemein ja.... ist auch für mich persönlich noch eine Generation die man eher einem Bastelnerd empfhelen kann der mit den Macken leben kann bzw. rumprobieren möchte.
 
  • Gefällt mir
Reaktionen: Mcr-King
DiePalme schrieb:
Und teilweise ist es erstaunlich, was sie noch an Performance herauszaubern können.
Naja. Die Leistung ist für die Chipgröße immernoch schlecht. Es gibt immernoch ein massives Problem mit der Auslastung.
 
  • Gefällt mir
Reaktionen: Mcr-King
@Trelor
Das ist nicht bestreitbar. Aber zumindest tut sich was.
 
Hier im Test wird die RX 7700 XT mit einer um 50 % höheren Leistungsaufnahme bei YouTube-Videos und Fensterbewegungen dargestellt als die RX 7600 XT. Diese Werte wurden anscheinend aus dem ursprünglichen Test der RX 7700 XT vom 6.9.2023 übernommen. Wurde das in letzter Zeit mal gegengetestet? Angeblich soll sich mit neueren Adrenalin-Versionen ja die Leistungsaufnahme bei geringer Last verbessert haben.


/edit
Bei den Chipgrößen in der Tabelle am Anfang wird als Einheit teilweise "mm" statt "mm²" angegeben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King, cele und Micha_80
SANDTIGER schrieb:
Also ich hab hier ne 6700XT untertaktet mit 2300Mhz @ 950mV @105Watt da muss von der Effizienz mehr kommen von AMD.

Also da war die 6000er Serie zu gut.

105Watt werden im Treiber angezeigt +20-30Watt sonstige Verbraucher /Verluste tippe ich mal
Sehr nice!
Hab meine gebrauchte 3060ti von 200+ auf 140Watt gekriegt, ohne Leistungsverlust. Lüfter von Jet zu fast lautlos. Takt/Spannungskurve ftw.
Kann man nur empfehlen so eine kleine Anpassung!
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben