Test Radeon RX 7900 XT Pulse im Test: Sapphires günstigstes RDNA-3-Custom-Design

Bloodie24 schrieb:
Hier nimmt es soviel Platz ein, weil es im Test nicht mit getestet wurde, würde ich mal sagen.
Ob Homeoffice ein so seltenes Anwendungsbeispiel für geringe Last über viele Stunden ist, da wäre ich mir nun nicht sicher in der heutigen Zeit.
Nein. Homeoffice ist ein reguläres Szenario bei mir 5 Tage* 8 Stunden.
Meine Aussage ist im Kern, dass ein Gaming PC mit hochgezüchtet CPU/GPU nicht das richtige Werkzeug dafür ist.

Sinn macht es für Content Creator und oder CAD Workstation. Die meisten davon werden aber wohl eher keine Gaming GPU drin haben. Selbst wenn, sind die paar Watt im Idle absolut irrelevant.
 
Snakeeater schrieb:
Du verdienst 3.600 Netto und kannst dir keine Highend GPU leisten?
da bleibt nicht viel über ich habe eben auch kosten
haus, auto usw...
inflation, was meinste ist das geld heute noch wert?
unter diesem betrag würde ich morgens garnicht mehr aufstehen
 
  • Gefällt mir
Reaktionen: Snakeeater
Rockstar85 schrieb:
Nur ist es halt leider Fakt, dass selbst mit besseren Karten, AMD keinen Stich macht. Und RDNA2 war bis auf RT eben der RTX30 überlegen.
War nicht RDNA2 vor allem für lange Zeit noch schlechter lieferbar als Nvidia-Karten? Ich dachte, dass dies der Hauptgrund für die schlechten Marktanteile von AMD in der Gen war.
Ich denke ich erinnere mich da an Artikel, in denen davon die Rede war, dass AMD lieber CPUs mit ihrem Kontingent bei TSMC fertigen lässt.
 
av4l schrieb:
War nicht RDNA2 vor allem für lange Zeit noch schlechter lieferbar als Nvidia-Karten? Ich dachte, dass dies der Hauptgrund für die schlechten Marktanteile von AMD in der Gen war.
RDNA2 war Ampere auch nicht überlegen. @Rockstar85 ist nur ein absoluter Fanboy, der immer nur Unfug von sich gibt:
gpu-index.jpg
Screenshot 2023-05-10 085536.jpg



Laut ihm sollte die 7900XTX auch der 4090 gefährlich werden und wer anderer Meinung war, wurde von ihm Verbal niedergeknüppelt. Was daraus wurde, wissen wir ja alle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Revolvermann01
MrHeisenberg schrieb:
RDNA2 war Ampere auch nicht überlegen. [...]:
Ja und Nein zur gleichen Zeit bei RDNA2. Es kommt bei RDNA2 stark darauf an, worüber man dann spricht.

In FHD und WQHD war RDNA2 Ampere - sofern man RT nicht betrachtet hat - durchaus "überlegen". Sie waren im Mittel an der 3090 dran oder darüber bei einem geringeren Energiebedarf. Ampere konnt erst durch die neue Shaderstruktur in 4K wirklich ansatzweise die Rechenpower auf die Straße bringen.

Was Ampere damals getrettet hat - und auch dass muss man so klar benennen - war die RT-Preformance und je nach Spiel war das bereits damals ein deutlicher Mehrwert. Wer also bestimmte Spiele bereits mit RT spielen wollte, greifte auch natürlich zu Ampere und hat damit auch das "bessere" Produkt gekauft.

Alles eine Frage des Blickwinkels. In der letzten Generation war die Frage nach NVIDIA oder AMD wirklich stark von den eigenen Prämissen abhängig.
MrHeisenberg schrieb:
Laut ihm sollte die 7900XTX auch der 4090 gefährlich werden und wer anderer Meinung war, wurde von ihm Verbal niedergeknüppelt.
Das Problem bei der 7900 XTX, besser RDNA3 allgemein - ist aktuell, dass die Karte einer 4090 - Rasterisation - wirklich gefährlich werden kann. Natürlich nur im Rahmen der Anzahl der ALUs. Wir haben vereinzelt spiele, in denen RDNA die 12288 Shader weitgehend in Stellung bringen kann und der Abstand nur noch 5 - 10 % beträgt. (Vereinzelte Spiele). Das ist schon sehr nah, wenn man bedenkt, dass die 4090 am Ende 1/3 mehr Shader im Unterbau hat.

Dazu kommt, dass Ada103102 ein Chip ist, der sich aktuell quasi vollständig langweilt und den man nicht mal im Ansatz auslasten kann. Limitiert man die FPS, dann zeigt die 4090 etwas, besonderes: Es verdricht selbst die Karten in der eigenen Generation vollkommen, was die Effizienz angeht. Passt man das TDP-Limit an, verliert man beim ersten Sprung von 450 W auf 350 W quasi keine Leistung selbst bei 300 W ist es überschaubar.

256 Threads mit je 64 Werten ... die Karte ist - und in diesem Sinn meine ich es positiv - massiv überzüchtet und deswegen kann sie sich auch - aktuell - von der 4080 im Mittel - obwohl sie fast 2/3 mehr Shader hat, TMU, RT-Kern und Co - gerade mal 30 % absetzen. Wenn eine Grafikkarte zukunftsfähig aktuell ist, dann die 4090.

Da RT aber jetzt wichtiger wird und auch mit Cyberpunk 2077 Overdrive ein "modernes" Spiel entsprechend zeigt, dass Pathtracing funktioniert: Ada ist aktuell die bessere wahl, wenn man auf die "Zukunft" eine Wette eingehen will. Ob sie für die Spiele der nächsten Generation "reichen" wird? Keine Ahnung, aber es ist wahrscheinlicher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TigerherzLXXXVI und Rockstar85
Geforce4070 schrieb:
Anhang anzeigen 1355331

Bestimmt ist ein allseits bekanntes Problem. Das ist ein Witz. Liegt am MCM Design deswegen saufen auch die Ryzens soviel am desktop in relation zu intel cpus und im teillastbereich
Ergänzung ()


Anhang anzeigen 1355332

4080

Naja, bei mir verbraucht die 7900XT Pulse nur 12W im idle Desktop. Ich habe einen WQHD Monitor der mit 165 Hz betrieben wird. Dasselbe Resultat bei 144 Hz. Memory clock so um die 20 MHz. Oder lügt GPU-Z vielleicht?
 
  • Gefällt mir
Reaktionen: Cleanor, Rockstar85 und Volvo480
Nein, bei Single-Monitorbetrieb ist das so. Da liegt meine 7900 XT Pulse auch bei ~12W bei FHD@144Hz. Oder bei 4k@60Hz.

Problematisch wirds in der Tat, wenn zwei Monitore angeschlossen, sind, egal wieviel Hz. Dann liegt die Karte bei ~100W weil der Speichertakt nicht runtergeht.
 
Ich bekenne mich als großer Sapphire-Fan und würde die Grafikkarten des Herstellers immer empfehlen. Da kann man wirklich nicht viel falsch machen. Darüber hinaus ist die hier getestete RX 7900 XT im Vergleich zur RTX 4070 Ti in den allermeisten Fällen die bessere Wahl. Außer Nvidia bringt noch eine 24GB-Version, dann würde die Sache wieder anders aussehen. Doch dazu wird es wohl nicht kommen. Zumal es nach wie vor mehr als genügend PC-Gamer gibt, die einfach blind eine Geforce kaufen. Und dazu gehört eben auch die RTX 4070 Ti.
 
nvidia ist nicht schlecht. man muss nur die topmodelle kaufen um lange ruhe zu haben. ansonsten ist die politk so ausgelegt, dass spieler sich ständig neue hardware kaufen sollen. mir hat die politik noch nie gefallen. die kunden nehmen es aber an und deshalb wird sich daran auch nix ändern.

grüße
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
Christi schrieb:
nvidia ist nicht schlecht. man muss nur die topmodelle kaufen um lange ruhe zu haben. ansonsten ist die politk so ausgelegt, dass spieler sich ständig neue hardware kaufen sollen.
Und mit deinem Top Modell bist Du jetzt besser gefahren, als jemand der jede Gen aufrüstet?
Weder war deine Karte insgesamt billiger, noch ist sie schneller.
Abgelaufene Garantie...erheblich langsamer...mehr Stromverbrauch...sehe ich nicht so erstrebenswert an.
 
gab ja in der mittelklasse genug beispiele wo sich der vram nicht geändert hat. als paradebesipiel nehme ich da die 3070. wo immer noch 8gb vram verbaut wurden.
meine aussage bezog sich auf den vram und die damit verbundene zukunftssicherheit. nvidia geizt nunmal damit und nur bei den topmodellen wird ordentlich bestückt.
will man paar jahre ruhe haben muss man das topmodell kaufen. nix anderes habe ich gemeint. nicht jeder hat bock jedes jahr die graka zu wechseln. ich jedenfalls nicht.
grüße
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
Christi schrieb:
nvidia geizt nunmal damit und nur bei den topmodellen wird ordentlich bestückt.
Das ist schon richtig...aber wann und wie oft kamen die 11GB VRam zum tragen, dass es sich gelohnt hat teilweise das dreifache einer RTX 2070 super zu zahlen?
Natürlich kann und darf jeder seine Aufrüstzyklus so gestalten wie er will, aber was für einen richtig ist oder erscheint muß ja nicht für einen anderen zählen.
 

@DaHell63


heute kann ich noch jedes aktuelle spiel mit ultra texturen in qhd noch spielen. zuletzt die beta von diablo 4 (kracht stellenweise den ram komplett voll und es läuft wie butter). hd texturen in farcry 6 laufen auch 1a und es gibt noch etliche weitere beispiele.
wenn man betrachtet wie lange es die karte schon gibt ist das absolute klasse. von nachhaltigkeit ganz zu schweigen.
und man kann das baby locker noch weitere 2-3 jahre betreiben, wenn man bei der auflösung bleibt und evtl. die regler bedienen kann.
für leute die nicht ständig hardware wechseln wollen ist das ein guter kompromiss, der am ende (wenn man mit den spitzen bleistift rechnet) einem auch nicht teurer kommt.

ps. übrigens habe ich das ständige wechseln von hardware als sport ende der 90ziger bis mitte der 2000er betrieben. damals gabs auch noch riesen sprünge bei der hardware, da hat das aufrüsten noch bock gemacht. dagegen ist ja heute es absolut langweilig und zum teil auch sinnlos. mit 4-5 jahre alte hardware hast du damals kein aktuelles spiel mehr vernüftig gezockt. seit die konsolen den rythmus bestimmen (mitte 2005 gings mit den hd konsolen los) kann man mit gescheiter hardware ewig aktuelle spiele zocken.
außerdem bin ich auch mittlerweile zu alt um auf jeden hype aufzuspringen und auch zu faul dauernd am pc zu schrauben. aufgerüstet wird erst, wenn ich nicht mehr gescheit zocken kann, die hardware kaputt geht oder ich ein übelst geiles schnäppchen mache (4090 für 800€ ;)).

grüße
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
Hallo zusammen,
weiß jemand, ob sich was mit dem Stromverbrauch bei Teillast und im Idle (mehrere Monitore bzw. ein Monitor mit hoher Auflösung/Hz) Treibermäßig schon etwas getan hat?
 
Bei meiner merc 7900xt ist die idle Last bei 165hz/1440p wieder auf 27 Watt hochgegangen.
Mit 60hz/2160p 18 Watt. Beides zusammen immer noch 80 Watt.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
@schnufflon84 ich habe nun seit paar Monaten eine 7900XT, und von Beginn an keinerlei Probleme gehabt. Ich meine kurz vor meinem Kauf gabs da gerade nen Treiber welcher das fixen sollte.
Angeschlossen sind 2x1440p Monitore mit 144Hz. Ich habe direkt nach Kauf aus Interesse mit den Hz-Kombinationen etc. rumgespielt, und zumindest bei mir, war alles in Ordnung.
 
Ah, super... die soll nämlich "nur" an nem Monitor mit 4k 120hz laufen
 
Christi schrieb:
oder ich ein übelst geiles schnäppchen mache (4090 für 800€ ;)).

grüße
Eher 4070 super

Sonst 2080 TI die Karte die die 3070 hatte sein sollen.

Ich meine ich hoffe sie wird noch lange unterstützt aber irgendwann dann nicht mehr... (die 1080 ti wird ja schon nicht mehr bei Avatar unterstützt)
 
Zuletzt bearbeitet:
gibt es sonst irgendwelche Macken bei der 7900 XT oder kann man die bedenkenlos kaufen (Die Raytraycing und Effizienz Geschichten sind mir bekannt)
 
Zurück
Oben