TeamViewer Motive 3

Test Grafikkarten-Generationenvergleich: RX 7600 XT vs. 9060 XT, GeForce RTX 4060, 5060 & Arc A/B580

sedot schrieb:
Ich würde eher zu weniger VRAM und RX9060XT bei Neukauf tendieren. Die 4GB Unterschied der beiden genannten GPUs machen im Vergleich den Kohl auch nicht wesentlich fetter und die Nachteile könnten überwiegen.
Wobei mit bloss 8GB geb ich dann aber auch nicht mehr so viel Geld fuer aus. Wuerde vermutlich zu ner RX 7600 greifen, wenn die dann noch verfuegbar ist.

Aber erstmal noch die Neuauflage der RTX 3060 abwarten. Neben GNU/Linux hab ich naemlich auch nen leichten Nvidia crush 🤭🤫

Die Steam Machine wird evtl (fuer mich) zu teuer, fuer das was sie leistet. Hab gehoert die GPU soll jetzt wohl doch naeher an ner 7600M statt der 7600 liegen. Da muss sie schon echt guenstig werden, wovon ich aktuell nicht ausgehen kann. 😔
 
RaptorTP schrieb:
Bei AMD rennt eine RX 9000 Karte beinahe Hirntot. Will heißen: ab 70% Last immer 100% TDP sofern die Power nicht mit einem Tool begrenzt wurde.

Ergo bringt Framelimit in manchen Games viel und in AAA-Titel oder ab einer gewissen Auflösung einfach nix mehr.

Suuper super schade.
Das hab ich auch festgestellt. In Hogwarts Legacy hat die Karte in bestimmten Bereichen Plötzlich von 120W auf 180W geboostet, für 0 mehr FPS.

Hab dann den Maximaltakt um 300MHz herunter gestellt, was das Problem (bisher) gelöst hat.
Ich verstehe nicht warum das genau SO gemacht wurde. Super effiziente Karte, aber Hand anlegen muss man trotzdem
 
  • Gefällt mir
Reaktionen: meckswell und RaptorTP
@nipponpasi
Schau mal hier, Techspot hat einen guten Überblick. Ist zwar älter, aber für die Orientierung zusätzliche Daten.

Die Situation gerade ist echt unschön und ich glaube nicht, dass es mittelfristig besser wird, was natürlich dann auch auf die Steam Machine Auswirkungen hat. Leider. Würde mich nicht überraschen wenn Valve das Ding noch weiter verschiebt.

Wenn du Nvidia willst, musst du Nvidia kaufen 😅
 
  • Gefällt mir
Reaktionen: nipponpasi
gruuli schrieb:
Ist die Frage ob man da noch den Aufpreis von dann 70€ bezahlt für 16 GB, oder ob man sich ne B580 mit 12 GB holt und mal eben 130€ spart (geht ab 260€ los), ist natürlich aber auch deutlich langsamer.
Dadurch das Intel aktuell so kurzlebig unterwegs ist und schon wieder dezidierte ARC Grafikkarten einstellen will, würde ich nie und nimmer eine Intelgrafikkarte kaufen wollen. Wer als Partner so unzuverlässig ist, der ist keinen Euro wert.
 
Danke für den Test! Wirklich toll. Wie effizient die B580 ist, da hat Intel tolle Arbeit geleistet. Großer Sprung von der A580. Auch im Vergleich zu AMD.

Nvidia ist einfach in einer eigenen Liga, dafür zahlt man eben auch einiges, für etwas für mich recht blödsinniges.

Bin selber Besitzer der B580, hab 230 Euro bezahlt + battlefield 6 - finde sie super. Reicht für mich.
 
  • Gefällt mir
Reaktionen: nipponpasi
Epistolarius schrieb:
Oder die Einstellungen im Treiber wurden irgendwie verstellt, wie z.B. die minimale Frequenz hochgesetzt oder ähnliches.

Nein, wenn man die Karte nicht zähmt, dann kenn die ab einer gewissen Last einfach NIX und ballert völlig bescheuert nach oben.

@Gaugaumera hat das auch feststellen können.

Entweder die Power begrenzen oder den Takt soweit runter das die nicht in diesen Boost-Mode verfällt.

Ich hab in PC meines Bruders einen 7700XT verbaut und war echt angetan und freute mich auf die 9070.

Dann so ein dämliches Verhalten der Karte :/

Ich wollte schon länger ein Video machen um das mal aufzuzeigen. Mal schauen 😅
 
@DevPandi:
Hat Computerbase.de ggfls noch bald vor, auch eine Warnung mit einem gezielten Test an Neukäufer von low end oder mid range GPUs 8 GB VRam Karten auszusprechen?

Bis auf alte E-Sport Titel, sollte das ggfls. schon längst überfällig sein, oder?

Habe mal ein paar Links gesammelt, da ich auch Kumpels habe, die immer wieder darauf reinfallen trotz meiner Warnungen, da sie ja nur 1080 p spielen aber sich dann später ärgern 🤬.

https://www.tomshardware.com/pc-com...-due-to-lack-of-vram-and-not-just-at-4k-ultra

https://www.pcgames.de/Hardware-The...Sparfuechse-Einsteigergrafikkarten-1479823/3/

https://videocardz.com/newz/nvidia-...16gb-model-in-gaming-performance-review-shows


Selbst da würden alte GPUs interessant sein und mehrere Vergleiche rein nach VRam Vergleich und gezielten 3 Spielen (niedrige Anforderungen, mittlere Anforderungen, hohe Anforderungen) inkl. Upscaling an / aus, mit drei bis max. vier Standard Presets.
Müssen ja nicht viele Spiele sein.
Hauptsache diese favorisieren keinen GPU Hersteller (wegen Engine Optimierungen oder weil starke Ausreißer vorhandenen sind) .

(und bitte auch sowas wie GTX 1060, RTX 2060, RTX 3060, RTX 4060, RTX 5060, RTX 5060 TI 8 GB VRam vs 16 GB VRam , AMD RX 9060 XT 8 GB vs 16 GB VRam, VRam, je nach Generation etc. alle nach VRam und Leistung gestaffelt in den 1% FPS lows ^^ für Low End und Mid Range GPUs).

Dann kann hätte man auch wirklich eine Auskunft über:
  • VRam vs VRam je nach Serie
  • Effizienz nach Serie (Speicher 8 GB , 10 GB , 12 GB , 16 GB werden unter einander sauber verglichen)
  • Leistung untereinander nach VRam und 1 % FPS low
  • Effizienz nach Frame Limit 60 Hz,120 Hz , 144 Hz, unlimited

Und ganz wichtig. Preise bleiben dynamisch und werden von dem Hersteller vorgegeben, nach Händler und nach aktueller Knappheit.
Das sollte gar nicht zählen, da es immer nur eine kurze Momentaufnahme darstellt.
Es sollte doch nur zählen, in welche Hersteller Kategorie wurden diese einsortiert (Low End, Mid Range). 😁
Dann entscheiden die Käufer doch selbst nach Preis und Leistung, ob die Karten wie Blei in den Regalen liegen bleiben oder man ggfls. Als reiner E-Sportler Game Zocker nur dann 50 € bis 100 € weniger die 8 GB VRam Variante oder ältere Karten gebraucht erwirbt. Oder?

Was aber unveränderlich bleibt ist der vorhandene VRam, die Leistung, Leistungsaufnahme bzw. Effizienz, Bottlenecks.


Könnte ja ggfls. auch was für @Wolfgang sein (sorry! ^^).

Ansonsten findet man so gut wie keine Legacy Benchmarks.
Dies ist eine der selten Quellen, das interessiert doch in der Regel wirklich jeden potentiellen Aufrüster, welcher nach 4 - 8 Jahren sich eine neue GPU gönnen möchte.
https://en.gamegpu.com/test-gpu/act...egacy-test-gpu-cpu?highlight=WyJsZWdhY3kiXQ==

Da kommt dann plötzlich so was raus bei nur Leistungsvergleich unter GPU Generationen!
Wie kann das sein und warum interessiert das euch (Community und Redaktion) ggfls. bisher nicht?!

Wie kann es sein, dass nach so vielen Jahren eine RTX 2080 TI (Release date 2018) fast eine RTX 4070 TI Super schlagen kann (Release date 2024), eine RTX 4070 TI (Release date 2023) und AMD RX 6900 XT (Release date 2020) fast deklassiert wird und es juckt niemanden?! 🫢 😉
Das ist doch blanker Hohn. 😁 😂
Schade das keine GTX 1080 TI dabei ist, dass wäre bestimmt auch schmerzhaft. 😁

Normalerweise sollte die EU einen dauerhaften Treiber Support für alte GPUs festlegen. Dann könnten, CPU, GPU Hersteller und Software Anbieter nichts mehr verschleiern und upselling betreiben.

Screenshot_20260501-145328.png

Schönen sonnigen Tag euch allen! 🤛
 
Zuletzt bearbeitet:
Falconer86 schrieb:
Nvidia ist einfach in einer eigenen Liga, dafür zahlt man eben auch einiges, für etwas für mich recht blödsinniges.
Stimmt ... :freaky:
 

Anhänge

  • FPS € RR.jpg
    FPS € RR.jpg
    234,6 KB · Aufrufe: 13
  • FPS € RT.jpg
    FPS € RT.jpg
    232,2 KB · Aufrufe: 12
  • Pragmata Linux Bench.jpg
    Pragmata Linux Bench.jpg
    272,5 KB · Aufrufe: 12
  • Gefällt mir
Reaktionen: Boimler
Gaugaumera schrieb:
Hab dann den Maximaltakt um 300MHz herunter gestellt
TaktOffset ist einer der unterschätztesten Regler bei RDNA4. Die Karten haben das Bestreben ihre Taktmaxfrequenz zu erreichen, was sie aber nie schaffen. Bei der 70XT is es 3450Mhz, man sieht das in HWinfo64 Sensorstab. Bei der 60XT is das vermutlich 3600mhz oder ähnlich.

Wenn man den Taktoffset -500mhz gibt schränkt man dieses sinnlose Hochdrehen ein. Meine 70XT läuft so und macht immernoch ~2900mhz, das reicht doch, kost kein FPS.

Wichtigerer Punkt, man senkt mit dem TaktOffset -(MINUS) 500mhz die Wattspitzen, die bei mir ~550Watt waren um ca. 100 Watt. Das hat mir gefallen.
 
Crifty schrieb:
Dadurch das Intel aktuell so kurzlebig unterwegs ist und schon wieder dezidierte ARC Grafikkarten einstellen will, würde ich nie und nimmer eine Intelgrafikkarte kaufen wollen. Wer als Partner so unzuverlässig ist, der ist keinen Euro wert.

Intel hat halt wie jede kapitalistisches Unternehmen das Problem das sie nur "Kurzfristig" denken aber nie eine Langfristige Planung machen.
 
SweetOhm schrieb:
Die Leute die die 7900 XTX gekauft haben haben alles richtig gemacht VRam geht wohl nie aus🤷🏻😂
 
  • Gefällt mir
Reaktionen: SweetOhm
  • Gefällt mir
Reaktionen: nipponpasi
meckswell schrieb:
Wichtigerer Punkt, man senkt mit dem TaktOffset -(MINUS) 500mhz die Wattspitzen, die bei mir ~550Watt waren um ca. 100 Watt. Das hat mir gefallen.
Kann ich für die 70 nonXT auch so bestätigen. Fps-Cap hat aber ggf den gleichen Effekt.
 
  • Gefällt mir
Reaktionen: nipponpasi
Sapphire Forum
Zurück
Oben