4070 TI oder 7900 XT

BunkerKillar

Cadet 3rd Year
Registriert
Dez. 2016
Beiträge
56
Hallo ich möchte in den nächsten Wochen, vermutlich Anfang März mein PC Upgraden
Will mein Ryzen 3700x gegen ein 5800X3D aufrüsten und auch meine GTX 1070 in Rente schicken.

Mein Budget für die GPU wären so 700€ - 900€
Dabei schwanke ich zwischen der 4070ti und der 7900xt weil es die einzigen die dreistellig kosten.

Im moment zocke ich noch auf 1080p @144Hz möchte aber auch mein Monitor gegen Sommer für 1440p @165Hz - 240Hz ersetzen.
Zocke auch öfters auf einem 4k TV

Die 7900xt liefert mehr FPS und mehr Speicher, sollen aber Spulenfiepen haben, sind schlechter in Raytracing und AMD hat schlechte Treiber

Die 4070ti ist besser bei Raytracing, Verbraucht weniger Strom und hat bessere Treiber, dafür weniger Speicher und langsamer als AMD

Welche GPU sollte ich mir holen? und welches Custom design?

Mein Bauch tendiert zu AMD, fürchte mich aber vor Coil Whine

Meine Specs:
Ryzen 3700x
Gigabyte X570 Aourus Pro
32GB Crucial Ballistix 3200Mhz OC auf 3600Mhz
Be Quiet Straight Power 750W
Samsung 970 Evo Plus SSD`s
Be Quiet Dark Base 700
Be Quiet Dark Rock Pro 4
 
BunkerKillar schrieb:
Die 7900xt liefert mehr FPS und mehr Speicher, sollen aber Spulenfiepen haben
Worauf basiert die Aussage/Annahme?
 
  • Gefällt mir
Reaktionen: BunkerKillar und coasterblog
Soll der neue Monitor Free- oder Gsync unterstützen? Coil Whine hat Nvidia genauso. Dass AMD Treiber schlechter sind ist als die von Nvidia ist Unsinn.
 
  • Gefällt mir
Reaktionen: cosmo45, Moetown, daknoll und eine weitere Person
[Bitte fülle den folgenden Fragebogen unbedingt vollständig aus, damit andere Nutzer dir effizient helfen können. Danke! :)]
:rolleyes:


spulenfiepen kannst auch bei ner 4070ti haben. ob dir RT/DLSS oder mehr speicher wichtiger sind musst du selber wissen.

egal welche karte es wird: achte darauf die an 12V3 und 12V4 anzuschließen, siehe NT-handbuch. wenn es ne 4070ti wird: klick
 
  • Gefällt mir
Reaktionen: MickeyMontana und BunkerKillar
MonteSuma schrieb:
Worauf basiert die Aussage/Annahme?
Reddit, Steam Forum und ein paar Youtuber berichten davon.
Auch bei Igors Lab habe ich davon gelesen, soll auf jeden fall nicht selten sein



Ja_Ge schrieb:
Soll der neue Monitor Free- oder Gsync unterstützen? Coil Whine hat Nvidia genauso. Dass AMD Treiber schlechter sind ist als die von Nvidia ist Unsinn.
Das ist mir nicht wichtig, je nach angeboten für Monitore
Vielleicht ein LG GP850 in 27 zoll
 
Ich würd die RX nehmen, man hat doch schon gesehen das bei der 4070ti die 12gb mehr als knapp sind und das wird in zukunft nicht besser für die karte. RT hin oder her, für mich persönlich ist das nichts weiter als ne spielerei und nicht kriegsentscheidend
 
  • Gefällt mir
Reaktionen: BunkerKillar
BunkerKillar schrieb:
Vielleicht ein LG GP850 in 27 zoll
Wenn der neue Monitor Gsync Unterstützung hat ist die Entscheidung die ich treffen würde sehr einfach. Warum ein gutes Feature verschenken?

Spulenfiepen ist ein Problem von Rot und Grün, und kann zusätzlich noch mit dem Netzteil zusammenhängen.
 
  • Gefällt mir
Reaktionen: BunkerKillar
Es kommt darauf an auf was Du mehr Wert legst.
DLSS3 bekommst du nur mit NVidia, auch ist dort RT deutlich performanter, somit sind - wenn das Game das kann - RT mit DLSS möglich und das mit ordentlichen Frameraten.

Ich persönlich greife grundsätzlich zu NVidia, aber das ist meine Entscheidung.
Davon solltest Du Dich nicht beeinflussen lassen.

Spulenfiepen kann bei beiden Karten auftreten.
Unter Last verbraucht die 4070Ti deutlich weniger Strom und läuft damit kühler, das sollte man auch nicht aus den Augen verlieren.
 
  • Gefällt mir
Reaktionen: BunkerKillar
Wenn du Raytracing möchtest 4070Ti, wenn das für dich nicht relevant ist die 7900XT. 20GB sind schon nice.
 
  • Gefällt mir
Reaktionen: BunkerKillar
Spulenfiepen haben mehr oder weniger fast alle Karten, die Frage ist eher ab wann es nervig wird, unter 160fps dürfte es für die meisten Irrelevant sein, umso schlimmer wenn die schon vorher fiepen.

DLSS3 (oder eher Frame Generation) würde ich auch nicht viel Priorität einräumen, das mag vllt noch mit Controllern funktionieren, aber sobald du mit Maus zockst, hat man ständig eine Art von Input Lag, als ob man deutlich weniger FPS hat, oder wie mit einer Bluetooth Maus, so würde ich es am besten beschreiben. Sobald man diesen Input Lag nicht mehr merkt, hat man auch ohne FG ausreichend FPS, nur eben nicht dreistellig.

Hab gerade ne 4070Ti da und hab das heute ausgiebig getestet, deshalb kann ich das auch so beschreiben.

Anderes Problem sind die 12GB die jetzt schon am Limit sein können, siehe Hogwarts mit RT, da reicht zwar die Leistung der Karte aus, aber ihr geht einfach der VRAM und du musst Settings runterdrehen, bei 900€ und kommenden Spielen eine Farce...

Auf der anderen Seite haben wie die 7900XT mit höherem Stromverbrauch und "Beta" Treibern, sind zumindest noch nichts so ausgereift wie von RDNA2 und NV.

Ist schon irgendwo ne schwierige Entscheidung, bei NV würd ich persönlich nicht unter der 4080 einkaufen, bzw 16GB VRAM wenns eine 4000er sein soll.
 
  • Gefällt mir
Reaktionen: BunkerKillar und Hatsune_Miku
Nvidia hat leider ein Talent für Sollbruchstellen in ihren Karten oder lässt sich das fehlen solcher vergolden. Man soll ja möglichst in 2 Jahren wieder 1000 Euro überweisen.

Die AMD Karten haben zwar derzeit noch ein paar Baustellen, aber performen nicht übel. Bei Raytracing haben sie auch deutlich aufgeholt und FSR 3 arbeitet irgendwann dieses Jahr ebenfalls mit frame Interpolation wie dlls 3.

Im Hinblick auf den VRAM Hunger der neusten Spiele, sind 12 GB einfach ein Witz für 900 Euro und 13xx€ für eine 4080 ist ebenfalls absurd. Jensen hält sein Versprechen und die 60+ Prozent Gewinnmarge aus der Mining/Coronazeit bleiben erhalten. Hauptsache die Investoren sind zufrieden.
 
Zuletzt bearbeitet:
Wenn du auch 4k zockst, dann würde ich zur 7900XT greifen.

Ich spiele mit high fps auf 1080p mit nem 390hz Monitor und bin bei den competitive shootern eben eher im CPU limit. Die 4070ti ist für mich genau das richtige. Leise, sparsam und lässt sich schön undervolten. Zusammen mit dem ryzen 7700 ist das system sehr effizient.
 
C0rteX schrieb:
Nvidia hat leider ein Talent für Sollbruchstellen in ihren Karten oder lässt sich das fehlen solcher vergolden. Man soll ja möglichst in 2 Jahren wieder 1000 Euro überweisen.

Wo hast denn den Quark her?

@BunkerKillar
Die 12GB der 4070ti könnten Mal ein Problem sein, derzeit aber noch nicht. Und Hogwarts ist ein schlechtes Beispiel, das läuft wohl so oder so katastrophal.
Nvidia hat Vor und Nachteile, genauso wie AMD.
Und AMD hat mit ihrer Sperre vom MPT auch das interessanteste "Feature" abgestellt.
Wenn ich eine Karte kaufe würde ich mich jedenfalls nicht mit irgendwanns zufrieden geben, sondern derzeitigen Fakten.
Irgendwann reichen die 12GB nicht mehr... möglich
Irgendwann kommt FSR 3.0 und wird toll...möglich
DLSS 3 ist da und funktioniert. 12GB reichen derzeit auch problemlos aus. Das mit dem Input-Lag ist auch übertrieben, in schnellen MP Shootern ist es eh nicht zu empfehlen und auch gar nicht notwendig bei Leistung.
Es kommt ja auch darauf an, wie lange man so eine Karte behalten möchte usw. Die Preise sind derzeit total mies, von Nvidia und AMD. Nvidia ist wertstabiler und "beliebter", lässt sich einfacher wieder verkaufen.
Ist zurzeit echt schwierig. Du machst mit beiden Karten nix falsch, wenn du bereit bist den Preis zu zahlen. Du musst halt schauen was für dich Prio ist.
 
  • Gefällt mir
Reaktionen: BunkerKillar und DaHell63
krille84 schrieb:
Die 12GB der 4070ti könnten Mal ein Problem sein, derzeit aber noch nicht. Und Hogwarts ist ein schlechtes Beispiel, das läuft wohl so oder so katastrophal.
Einer RTX 4070TI geht da in 4K max und Raytracing der VRam aus? Was für ein VRam Krüppel...nur macht es halt, in der Stuation, die 24GB AMD HighendKarte auch nicht besser...ausser man steht auf 19FPS Daumenkino

RX 7900 XT.png

Ohne die enstsprechende Leistung nutzt der VRam auch nichts
UW RT.pngVRam.png

.....and the Winner is..Tada...Vram Krüppel:daumen:
Wie ihr spielt keine Raytracing Spiele? Warum wird dann bei Nvidia der VRam Verbrauch an 4K/max/Raytracing festgemacht?

Ich finde es sowieso lächerlich, dass die Spielbarkeit an einem 20 sek max Worst Case Run festgemacht wird.
Nachdem wären eine RX 6700/XT bestenfalss eine 720p Karte (da braucht es nichtmal Raytracing)......was wahrscheinlich abertausende Spieler wohl anders sehen werden.

1080P.png
 
Zuletzt bearbeitet:
krille84 schrieb:
Wo hast denn den Quark her?

Der Quark kommt von Hardware unboxed, LTT und anderen namenhafter Quellen in der Szene. Wer bist du? Du scheinst ja ein außergewöhnlicher Spezialist auf diesem Gebiet zu sein, der sich ebenfalls hauptberuflich mit solchen Dingen beschäftigt, um so etwas sagen zu können. Hast du auch einen YouTube Channel, einen etablierten Ruf und nachweisbare Fachkenntnisse?

12 GB ist sowohl in Hogwarts, dead space und Forspoken aufgefallen. Das sind nur die ersten Titel der neuen Generation von Spielen und die Nvidia Karte mit dem schmalen Speicherinterface und den 12 GB Speicher für 900 Euro performt nach nur wenigen Wochen nach Erscheinen nicht mehr ordentlich. Wem das nicht zu denken gibt, dem ist nicht zu helfen.

Die 7900 XTX hat die selbe Raytracing Leistung wie eine 3090 ti. Also die Karte, die hier noch vor wenigen Monaten von einigen als der heiligen Gral gesehen wurde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: alkaAdeluxx
C0rteX schrieb:
Die 7900 XTX hat die selbe Raytracing Leistung wie eine 3090 ti
nö...wenn es hart zur Sache geht, nicht bloß Softeisraytracing, ist eher die RTX 3080 der Gegner.
Da könnte man ja sonst gleich sagen der Port Royal Benchmark spiegelt die Raytracing-Leistungsfähigkeit wieder. Da nimmt man dann auch eher den DXR Feature Test, der ungefähr auf ein Cyberpunk/DyingLight 2 oder ähnliches zutrifft.
Wenn Du die Durchschnittliche Spielbarkeit aller Raytracing Spiele meinst ist das wieder etwas anderes.
 
Zuletzt bearbeitet:
Du meinst wenn Nvidia den Titel gesponsert hat und absichtlich das Raytracing so implementiersn lässt, dass es auf AMD Karten schlechter läuft? Die benchmarks oben sind albern. Du ziehst ein Spiel mit max settings mit Raytracing raus und zeigst einen Screenshot ohne upscaling. Wer benutzt sowas ohne upscaling? Jetzt suchst du mit bitte einen Benchmark Vergleich zwischen 7900xt und 4070 ti ohne upscaling bei beiden raus. Alles auf max und mit limitierenden 12 GB Speicher. Du zeigst komischerweise nur 4070ti vs RX 6000er oder nur die 7900xt ohne vergleich zur 4070ti. Das sagt so ziemlich gar nichts aus. Das ist unwissenschaftlich und Äpfel mit Birnen Vergleich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
C0rteX schrieb:
Du meinst wenn Nvidia den Titel gesponsert hat und absichtlich das Raytracing so implementiersn lässt,
Oha...da geht die rote Kontrolllampe wieder an.
Die eigene Medizin verträgt man wohl nicht so gut. Ich habe oben schon geschrieben, dass ich die PCGH max Benchmarks für die Spielbarkeit lächerlich finde. Für die reine Leistungsfähigkeit aber top.
Um die reine Raytracing Leistung zu testen brauchst Du ja bloß mal den DXR Feature Test laufen zu lassen.
Aber trotzdem süss, dass dann extra Settings gefordert werden die evntuell, in Spiel X mit Einstellungen Y, den VRam überfordern. Während man aber selber jegliche max Einstellungen ablehnt, die die eigene Karte schlecht aussehen lassen.
AMD max ist halt doch was anderes....sehe ich immer wieder.
 
Das war doch eine einfache Aufforderung die überhaupt erst eine Vergleichbarkeit zulassen würde, aber versteh schon deine ausweichende Haltung. Beenden wir das hier. Ich habe meine etablierten Quellen genannt und Nachweise gibt es in den letzten Tagen genug. Wenn dir das nicht sauer aufstößt, dass jetzt schon 900 Euro Karten nach wenigen Wochen Kompromisse benötigen, dann ist doch alles gut. Unglaublich das diese Karte ernsthaft als 4080 geplant war, für noch mehr Geld. 😂 Aber irgendwie scheinen es die Leute ja immernoch mitzumachen und verteidigen solche Methoden sogar. Nicht das ich die Anpassung der Preise von AMD an die von Nvidia nicht auch verurteilen würde, aber leider ist Gewinnmaximierung der Focus der Unternehmen. Die Frage ist welche Marge Nvidia noch fahren möchte und was die Leute immernoch mitmachen. Über 50 Prozent Marge ist ja eher unüblich, aber Jensen zieht es durch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fundeath
C0rteX schrieb:
Wenn dir das nicht sauer aufstößt, dass jetzt schon 900 Euro Karten nach wenigen Wochen Kompromisse benötigen, dann ist doch alles gut.
Und welche Karte muss das nicht?
Selbst mit einer RTX 4090 kannst Du in 4K max nicht immer ohne Kompromisse mit ausreichend FPS spielen.
Frag mal da nach, oder bei den RX 7900 XT/XTX Besitzern (19 FPS in Hogwarts).
Ich hab selber eine RX 6800, aber wenn man AMD nicht immer und überall den Bauch streichelt ist man halt ein Nvidia Fanboy oder Nestbeschmutzer...damit muss...und damit kann ich auch leben. Nur glauben muss ich das ewige Geseier nicht.
 
  • Gefällt mir
Reaktionen: cosmo45
Zurück
Oben