4070 oder RX 6900 XT

Marcoxppp schrieb:
Und was wäre ein realistischer Preis für die Graka
Das musst du selbst schauen, auf ebay bei den beendeten Angeboten. ;)
 
  • Gefällt mir
Reaktionen: Marcoxppp
Eine 6900 XT ist von der Rohleistung so schnell, wie eine 4070 Ti. Einfach auf RT Spielerei verzichten, wenn man kein dafür nötiges Geld hat. Ansonsten nimmt man XeSS, welches sich per Optiscaler in jedem Spiel einschalten. Ansonsten, wenn für einen das Beste gut genug ist, kauft man sich eine 5080 und gut ist. Eine 4070 in 2-Lüfter Variante ist das allergünstiges Model gewesen. 6900 XT haben alle einen grossen Kühler mit 3 Lüfter. Begrenzt man die FPS auf 60, erreicht bei mir die 6900 XT keine 180 W in der Regel. Habe mit ihr sogar
Black Myth: Wukong in 2K nativ gespielt.
 
lmfaktor schrieb:
Eine 6900 XT ist von der Rohleistung so schnell, wie eine 4070 Ti.
Ja, mehr Rohleistung hat sie als die 4070.
In Linux legt die 6900 XT gegenüber Windows nochmal zu und die 4070 bricht ein wenig ein. Wenn es Linux wäre, hätte ich deshalb den Tausch evtl. als Vorteilhaft gesehen. (Zusammen mit der ganzen Treibersituation)
Aber hier geht es wohl um Windows 11. Und da sehe ich wegen DLSS die 4070 ganz klar vor der 6900 XT, selbst mit mehr Rasterleistung.

Im Endeffekt ist es jetzt egal, weil der TE seine 4070 anscheinend schon los bekommen hat. Jetzt kann er nach einer 9070 (XT) schauen. Da hat er gar keine Nachteile.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Bin noch keinen Tausch eingegangen, mir ist RT etc egal, aber diese DLSS Geschichte mit FG macht mich etwas nachdenkbarer da AMD nur FSR hat und ich noch keine AMD Graka hatte weiß ich nicht wie sich das Verhällt...
 
Holzinternet schrieb:
Ich hatte eine RX7900XTX die dadurch immer im Leerlauf 100 Watt gezogen hat.
Das war nur eine Zeitlang nach Release so. Je nach Monitor (auch im Multi-Mnitor-Betrieb) zieht sie deutlich weniger im Leerlauf.
Außerdem galt das nicht für die 6000er Reihe

Aber ich würde wahrscheinlich auch bei der Nvidia bleiben, einfach weil sie aktueller ist
 
Marcoxppp schrieb:
Bin noch keinen Tausch eingegangen, mir ist RT etc egal, aber diese DLSS Geschichte mit FG macht mich etwas nachdenkbarer da AMD nur FSR hat und ich noch keine AMD Graka hatte weiß ich nicht wie sich das Verhällt...
FG hat AMD doch auch. Xess, wie ich bereits schrieb, funktioniert sehr gut und lässt sich mit jedem Spiel nutzen. Da ist kein Gefummel nötig und Xess im Vergleich zu FSR 4 läuft immer problemlos. Wenn man dich dazu erst überreden muss und du mit deiner Karte absolut zufrieden bist, wozu dann überhaupt darüber nachdenken?
 
  • Gefällt mir
Reaktionen: Marcoxppp
@Marcoxppp AMD hat seine Upscaling-Technologie von einer rein softwarebasierten Version (FSR 3.x) zu einer KI-basierten Version (FSR 4) verbessert. Für FSR4 sind aber spezielle Recheneinheiten auf der GPU nötig. Die 9000 Serie hat diese und die 6000 Serie hat die nicht. Daher wird das aktuelle FSR4 auf 6000er GPUs nicht laufen. Die 7000er Serie hat zwar auch KI-Beschleuniger verbaut, aber mit eingeschränktem Feature-Set. Dh. FSR4 könnte hier nur in einer angepassten Version mit schlechterer Performance laufen. Die gibt es offiziell aber noch nicht. NVIDIA hat schon seit der 2000er Serie auf KI-basiertes Upscaling gesetzt und entsprechende "Tensor Cores" verbaut. Deswegen läuft DLSS auch noch auf diesen Karten.
 
  • Gefällt mir
Reaktionen: rollmoped
Habe jetzt eine RX 7900 GRE angeboten bekommen.
Jetzt bin ich total überfordert haha
 
Und was machst du, wenn du dann doch nicht mit zufrieden bist?

Gab schon Leute die dem Wechsel zu AMD bereut haben.
 
  • Gefällt mir
Reaktionen: Holzinternet
jo0 schrieb:
Das war nur eine Zeitlang nach Release so. Je nach Monitor (auch im Multi-Mnitor-Betrieb) zieht sie deutlich weniger im Leerlauf.
Außerdem galt das nicht für die 6000er Reihe

Aber ich würde wahrscheinlich auch bei der Nvidia bleiben, einfach weil sie aktueller ist

Ich hatte die 7900XTX über ein Jahr. Mit etlichen Softwareversionen. Ab drei Bildschirmen taktet der RAM nicht mehr runter. Mitunter sogar bei zwei wenn die Hertzzahl zu hoch ist. Meine haben 144Hz bei 1440p.

Und es waren immer 100 Watt. Habe es lang und breit getestet. Für mich ein No-Go. Deshalb zurück zu Nvidia. Und da hab ich jetzt 27 Watt Idle Verbrauch bei 2x 1440p bei 144Hz und 1x 2540x1080 bei 60Hz. Da liegen mehr als nur Welten dazwischen.

Grundlegend gute Karte, aber das kann AMD nicht. Wenn es für andere geht ist das ok. Strom ist bereits teuer genug.

Gruß
Holzinternet
 
lmfaktor schrieb:
Xess, wie ich bereits schrieb, funktioniert sehr gut und lässt sich mit jedem Spiel nutzen. Da ist kein Gefummel nötig und Xess im Vergleich zu FSR 4 läuft immer problemlos.
Das frei nutzbare XeSS ist das Gegenstück zu FSR3, will man das qualitativ gute XeSS Gegenstück zu FSR4/DLSS nutzen benötigt man eine Intel GPU.

Aus der FAQ:
"Was ist Intel XeSS?

Xe Super Sampling kombiniert eine temporale KI-Kantenglättung ähnlich TAA mit einem ebenso temporal arbeitenden Upscaling-Algorithmus. XeSS ist insofern Intels Gegenstück zu Nvidia DLSS Super Resolution und AMD FidelityFX Super Resolution, das aber trotz KI-Komponente wie FSR grundsätzlich auf sämtlichen modernen GPUs funktioniert. Auf Intels Arc-Grafikarten mit Alchemist- und Battlemage-Architektur sieht es dank Beschleunigung über die Matrix-Kerne (MMX) potenziell besser aus, während auf allen anderen Grafikkarten ein einfacheres neuronales Netzwerk verwendet wird, das eine schlechtere Bildqualität erzeugt.


XeSS sieht entsprechend auf Intel-GPUs anders als auf den Pendants von AMD und Nvidia aus."

7900GRE macht keinen SInn, die ist so schnell wie eine 4070 und kann kein DLSS/FSR4.

Mit DLSS/FSR4 Quality schaut es so aus wenn du dir mal einen Spieletest anschaust:
1771509113559.png


Keine 7000er Karte macht Sinn von der 4070 aus.
 
  • Gefällt mir
Reaktionen: Marcoxppp
Hab jetzt irgendeines der letzten Spiele genommen die mit DLSS Quality/FSR4 Quality getestet wurden.
 
Holzinternet schrieb:
Ich hatte die 7900XTX über ein Jahr. Mit etlichen Softwareversionen. Ab drei Bildschirmen taktet der RAM nicht mehr runter. Mitunter sogar bei zwei wenn die Hertzzahl zu hoch ist. Meine haben 144Hz bei 1440p.
Wie es mit 3 Monitoren läuft, keine Ahnung. Aber, wie ich bereits gesagt hatte, kommt es auf die Monitore an.
Wenn du pech hast, kannst du das Problem auch mit einem Monitor haben, der nur mit 120Hz läuft. Das kann ebenso auch bei Nvidia auftreten, wenn auch seltener.
Holzinternet schrieb:
Und es waren immer 100 Watt. Habe es lang und breit getestet. Für mich ein No-Go. Deshalb zurück zu Nvidia. Und da hab ich jetzt 27 Watt Idle Verbrauch bei 2x 1440p bei 144Hz und 1x 2540x1080 bei 60Hz. Da liegen mehr als nur Welten dazwischen.
Ich habe meine Karte seit Release und da lief sie teilweise mit ca. 100Watt im Idle bei 2 Monitoren, beide WQHD, einer 144Hz und einer 165Hz. Beide auf 120Hz zu stellen verringere den Verbrauch etwas. Mit CRU konnte man auch an den Timings spielen, damit die Karte runtertaktet, funste bei mir auch nicht oder ich bekam es nicht hin. Später, nach einigen Treiber Updates lief das in etwa bei 50Watt im Idle. Jetzt mit meiner aktuellen Konfig mit 2 Monitoren, beide 1440p, 280Hz +165Hz habe ich um die 30 Watt.

Computerbase hatte am 31.07.23 auch bestätigt, dass sich die Idle Werte verbesserten:
1771511233106.png

Beim Dual-Monitor-Test profitiert RDNA 3 erneut deutlich. Wenn ein 60-Hz- und ein 144-Hz-Monitor mit Ultra-HD-Auflösung angesteuert werden, benötigen die drei Radeon-RX-7000-Karten vergleichbar viel beziehungsweise weniger elektrische Leistung als die direkten Konkurrenzmodelle aus Nvidias GeForce-RTX-4000-Reihe.
 
  • Gefällt mir
Reaktionen: Holzinternet
Wenn du auf Nummer sicher gehen willst, nimm einfach eine RTX 5090. Damit sind alle Fragen beantwortet! :schluck:
 
  • Gefällt mir
Reaktionen: Marcoxppp
Zurück
Oben