Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du möchtest jetzt eine Karte und hast das nötige Kleingeld, dann Greif zu. Du machst mit keiner von beiden etwas falsch und wirst mit beiden glücklich sein. Alles andere ist persönliche Präferenz. Derzeit ist leider einiges an schlecht optimierter Software draußen, da nützt die beste Karte nix, wenn die Entwickler patzen.
Und ein Wagnis gehst du auch grundsätzlich nicht ein.
- FPS: spiel- und anwendungsabhängig abhängig bzw der leistungsunterschied ist redundant, in Raytracing liegt die 4070 ti klar vorne
- Speicher: weniger wichtig in deinem primären Anwendungsgebiet, alle Konsolen werden mit weniger Speicher auskommen, und dieser Markt bestimmt die Entwicklung. Es werden keine Games exclusiv für Speichermonsterkarten erstellt werden, und wenn, dann wird das nur im 4K+Raytracing Bereich relevant sein
- Spulenfiepen: herstellerunabhängig
- Treiber: beide Hersteller haben ausreichend gute Treiber
Fazit:
Triff deine Entscheidung nach anderen Kriterien
Anwendungsbasiert (welche karte ist besser in Anwendung X)
@BunkerKillar
Ich verstehe dich. Ich stand vor knapp 2 Jahren vor dem gleichen Problem. Ich hatte nur eine 1060 mit 6gb, wobei mich die 6 gb wenigstens immer die Texturen auf Maximum drehen liesen. Dann ein neuer Monitor mit WQHD und das warten auf die 3000er/6000er Gen. Da waren manche Sachen in der höheren Auflösung einfach unspielbar und die Preise für Grakas explodierten. Für die 6700 XT musste ich dann direkt zu release Federn lassen, die teilweise durch den hohen Verkaufswert der 1060 abgefedert wurden. Später noch der OED C1, wobei ich den noch Notfalls auf Full HD hätte stellen können. Full HD auf WQHD ging leider mal gar nicht klar. Eigentlich hätte ich eine 6800 XT gekauft, aber die gabs nur für 500 Euro mehr. Ich habe 1 Jahr gewartet, dass hast du ja schon lange hinter dir. Einen Tradeoff wirst du eingehen müssen. Wobei die Texturen 1 Stufe runter drehen meist auch kein Beinbruch ist, falls es die 4070 wird. Ist zwar bitter kurz nach Release für 900 Euro, aber shit happens.
Das ist einfach totaler nonsene und Computerbase generiert meiner Meinung nach mit solchen „reißerischen“ Überschriften einfach nur Klicks.
Im Szenario 4K mit Raytracing (Übrigends das einzige Szenario in der die 12GB nicht ausreichen) liefert eine 4080 30 Min-FPS und eine 7900 gerade mal 15!
Da ist mir schnurzpiepegal wieviel Speicher da verbraucht wird, weil es auch mit 16GB und 24GB einfach ebenfalls unspielbar ist!
Das sind für mich immer komplett realitätsferne Einstellungen, weil wirklich niemand mit Verstand mit diesen Einstellungen so spielen wird.
Weiterhin ist das Game derzeit komplett schlecht optimiert, aber hauptsache CB generiert schön Klicks 😂
Sie hätten auch schreiben können, dass in dem Szenario in dem der RTX 4070TI der VRam ausgeht, die AMD Riege trotz 16-24 GB VRam (mangels Leistung) komplett wegknickt. Die alten Stromschlucker sowieso.
Mit diesen Einstellungen...RTX 4090...genug Speicher und ausreichend Leistung.
Der Rest bitte das Game anpassen und nicht bei A oder B maulen wenn die eigene Karte selbst nicht reicht.
Vielleicht und noch nicht haben ist bei mir ein gewaltiger Unterschied zu bereits gekauft und nur Nvidia gsync, aber das hat halt besser in deine Argumentation gepasst. Ich halte mich Mal an die Fakten.
Richtig, würde so keiner benutzen, aber mit upscaling steigt der VRAM Verbrauch ja noch weiter und es sind immernoch keine Treiber für das Game draußen, also wissen wir nicht ob die fps so final sind. Beim VRAM Verbrauch wird sich zeigen ob sich überhaupt viel machen lässt, dass es nicht erst ab 16 GB sauber läuft. Die neue Konsolen Gen hat kombinierten Speicher. Beim PC müssen viele Daten doppelt in RAM und VRAM vorgehalten werden, was zu einem stark steigenden Verbrauch führt. Die Games, ohne Rücksicht auf die alte Konsolen Gen entwickelt werden, sind nunmal sehr viel speicherhunriger. In Anbetracht wie lange 16 GB RAM und 8 GB VRAM noch ausreichend für viele Einstellungen waren, ist das nicht Mal so überraschend.
Mein Forza Horizon 5 hat mir gestern ebenfalls zum 3 Mal eine Meldung gebracht, dass meine 12 GB nicht ausreichen für die 4k ohne Raytracing. Ich habe nicht Mal alle Einstellungen auf Maximum und kein Raytracing an. Das dürfte auch zu denken geben?
Was mich gerade extrem wundert, ist die Tatsache das du von realitätsfernen Einstellungen sprichst, aber ganz bewusst in deinem Screenshots die Darstellung wählst, in der 4k und Raytracing ohne upscaling gezeigt wird. Einstellungen die niemand empfehlen würde oder auch nur daran denkt diese zu benutzen. Dafür könnte man dich fast für einen Troll halten. 😂😂😂
Ergänzung ()
DaHell63 schrieb:
Sie hätten auch schreiben können, dass in dem Szenario in dem der RTX 4070TI der VRam ausgeht, die AMD Riege trotz 16-24 GB VRam (mangels Leistung) komplett wegknickt. Die alten Stromschlucker sowieso.
Mit diesen Einstellungen...RTX 4090...genug Speicher und ausreichend Leistung.
Der Rest bitte das Game anpassen und nicht bei A oder B maulen wenn die eigene Karte selbst nicht reicht.
Da du grundsätzlich nichts zu lesen scheinst, was nicht in dein Weltbild passt, kopiere ich den Inhalt meines geposteten Links Mal hier rein. Mit der Vorgehensweise bist du bald auf der ignorliste für Trolle.
Aus dem Test von Computerbase zu Hogwarts legacy:
Erst ab 16 GB ist man wirklich sorgenfrei
Hogwarts Legacy benötigt für maximale Texturdetails viel Grafikkartenspeicher. Konkret handelt es sich um das erste Spiel im Test der Redaktion, das erst ab 16 GB VRAM in allen Lebenslagen problemlos funktioniert. Selbst mit 12 GB muss man Einschränkungen in Kauf nehmen. So hat die GeForce RTX 4070 Ti zum Beispiel in Ultra HD und DLSS Quality bei ansonsten voller Grafikqualität zwar keine Performance-Probleme, aber bei manchen Objekten werden die Texturen nicht geladen, andere verschwinden kurzfristig völlig, da die Engine vermutlich versucht, die Situation irgendwie noch zu retten. Ohne Raytracing klappt es auch mit 12 GB. 10 GB sind auch ohne Raytracing in Ultra HD mit DLSS bei ausreichender Framerate nicht mehr genug. Hat die Grafikkarte nur 8 GB, zeigen sich bereits in WQHD inklusive DLSS deutliche Abnutzungserscheinungen selbst ohne Raytracing und auch in Full HD fehlt beim Spielen die ein oder andere Textur. 8 GB und maximale Texturen sind schlussendlich nicht möglich.
Richtig, würde so keiner benutzen, aber mit upscaling steigt der VRAM Verbrauch ja noch weiter und es sind immernoch keine Treiber für das Game draußen, also wissen wir nicht ob die fps so final sind. Beim VRAM Verbrauch wird sich zeigen ob sich überhaupt viel machen lässt, dass es nicht erst ab 16 GB sauber läuft. Die neue Konsolen Gen hat kombinierten Speicher. Beim PC müssen viele Daten doppelt in RAM und VRAM vorgehalten werden, was zu einem stark steigenden Verbrauch führt. Die Games, ohne Rücksicht auf die alte Konsolen Gen entwickelt werden, sind nunmal sehr viel speicherhunriger. In Anbetracht wie lange 16 GB RAM und 8 GB VRAM noch ausreichend für viele Einstellungen waren, ist das nicht Mal so überraschend.
Was mich gerade extrem wundert, ist die Tatsache das du von realitätsfernen Einstellungen sprichst, aber ganz bewusst in deinem Screenshots die Darstellung wählst, in der 4k und Raytracing ohne upscaling gezeigt wird. Einstellungen die niemand empfehlen würde oder auch nur daran denkt diese zu benutzen. Dafür könnte man dich fast für einen Troll halten. 😂😂😂
Sorry, aber in deinen Sätzen sind technisch so viele Falschaussagen enthalten, dass ich keine Lust habe mit dir hier zu diskutieren.
Das Diagramm ist dem Technik-Test entnommen, nicht mehr und nicht weniger.
Und da du anscheinend nur Balken zu verstehen scheinst und mich schon als Troll betitelst hier noch ein Balken für dich (Vielleicht entspricht das eher deiner Realität):
Eine 7900XT, die hier ja zur Diskussion steht, wird krachend an den 30FPS scheitern, wohlgemerkt mit 20GB und Upsampling.
Da du grundsätzlich nichts zu lesen scheinst, was nicht in dein Weltbild passt, kopiere ich den Inhalt meines geposteten Links Mal hier rein. Mit der Vorgehensweise bist du bald auf der ignorliste für Trolle.
Aber nur mit einer Nvidia Karte...aber das passt wieder nicht in dein rotes Weltbild.
Meine RX 6800 mit ihren 16GB ist auch ganz sicher schneller als der Nvidia VRam Krüppel....grosses rotes Indianer Ehrenwort.
Und deine RX 6700 XT wird erst rocken...mit den selben Einstellungen ~5-10FPS?
C0rteX schrieb:
Mit der Vorgehensweise bist du bald auf der ignorliste für Trolle.
Danke das du das berichtigt hast. Ich fand es nur komisch von realitätsfern zu reden und gleichzeitig eben nicht den Screenshot mit upscaling zu zeigen, aus den genannten Gründen. Damit ziehe ich das Troll Kommentar zurück. Ne, ist nicht wirklich spielbar. Ich benutze ja immer die optimierten settings von digital foundry. Die analysieren welche Einstellungen bei geringen Verlust der Optik die Performance verbessern.
Mein Beispiel mit Forza Horizon 5 zeigt aber klar, dass eben nicht Raytracing an sein muss, dass 12 GB nicht mehr ausreichen. Nicht Mal mit maximalen settings. Hatte zum Teil Einbrüche um 15 fps auf manchen strecken. 12 GB für 4k ist einfach vorbei.
Ergänzung ()
@dahell
DaHell63 schrieb:
Aber nur mit einer Nvidia Karte...aber das passt wieder nicht in dein rotes Weltbild.
Meine RX 6800 mit ihren 16GB ist auch ganz sicher schneller als der Nvidia VRam Krüppel....grosses rotes Ehrenwort.
Ich weiß nicht was bei dir vorgeht, aber hat keiner behauptet das eine 6800 schneller ist. Du ignorierst alles was man mit Fakten und Testergebnissen untermauert und vergleichst ständig Äpfel mit Birnen. Man kann sich das echt sparen mit dir zu reden.
Ich glaube mal nicht, dass eine 12GB Nvidia da Probleme hat.
Ich habe das 2 Jahre lang mit der RTX 3070 und der RX 6800 verglichen und in vielen Spielen braucht Nvidia einfach weniger VRam.
Natürlich keine 4GB oder so. Aber bis zu 2GB waren da schon öfters dabei.
In Forspoken belegt die RX 6800 schon zum Start knapp unter 13GB, während die RTX 4070Ti da knapp unter 10GB bleibt (1440p).
Das war der erste konstruktive und refelktierte Beitrag von dir. Ja, das mit dem schlechteren Speichermanagement von AMD ist mir bekannt. Allerdings hat das Game auch schon viele Patches und Treiberoptimierungen hinter sich und ich hab ja nicht Mal Raytracing und upscaling an. Ich vermute das wäre eine 3070 dann auch zu viel. Würde mich alles eher nicht beruhigt erneut zu einer 12 GB Karte greifen lassen, egal von welchem Hersteller. selbst wenn nivida in 4k auch Mal 1 GB weniger verbraucht, macht es die fehlenden 4 GB für mich nicht beaser. Man muss halt auch alle schlecht optimierten Games mit seinem Hardwarekauf abfedern. Und das möglichst für mindestens 3 Jahre.
In 4K hätte wohl das beste VRam Management nicht geholfen um den VRam auszugleichen. Es hat ja seinen Grund warum ich die RTX 3070/8GB getauscht und die RX 6800/16GB behalten habe.
Auch wenn man die 16GB in reinen Rasterspielen in 1440p in der Regel nicht braucht, liefert die RX 6800 in der Auflösung genug Leistung.
Die RTX 3070 währe aber, abgesehen allein von der Leistung, mit ihren 8GB und meinen Raytracing Vorstellungen nicht mehr konform gewesen.
Deswegen die RTX 4070Ti für 2560x1440. Die wohl den selben Bildschirm betreiben muss.
Ja, für wqhd sind 12 GB auch noch komfortabel. Die Tatsache das eine 3070 für 500 Euro UVP gedacht war und jetzt plötzlich 900 Euro aufwärts für wqhd fällig werden sollen, will mir aber nicht in den Schädel. Bei dem kollabierenden Markt erst Recht. Und das sage ich, der letztens Jahr 4000 Euro für Technik ausgegeben hat. Ich muss halt noch einen LG C1 befeuern, da hätte ich mit der 3070 erst Recht verloren. Der Ersteller hat ebenfalls einen 4k TV.
An die Preise werden wir uns gewöhnen müssen.
Abgesehen von dem was wir haben wollen, kann man aber auch weit weit günstiger in 1440p spielen.
Selbst 4K ist in Reichweite wenn man mal die max Benchmarks vergisst und sein Spiel anpasst.
Dazu hätte es nicht mal eine neue Gen gebraucht...noch nicht mal die alten Highend Karten.
Im Endeffekt legen wir uns den Preis für die Karte selber auf...alles haben wollen ist teuer.
Naja, alles haben wollen. Ich hab schon nur eine wqhd Karte und spiele in 4k. Ich benutze optimierte settings und schalte auch Mal Raytracing aus, wenn's ohne spürbar besser läuft. Jensen möchte halt die Gewinnmarge aus Corona/Mining halten. Hat er selbst gegenüber den Investoren vor dem Release der 40er Karten gesagt. Derweil fährt er ja schon 60 Prozent + Marge und die ersten Boardpartner (EVGA) ist aufgrund fehlender Gewinnmarge ausgestiegen. Die einzige Möglichkeit das einzudämmen ist, wenn man nicht kauft. Dann fehlt der Umsatz und die Preise müssen fallen. Wenn wir natürlich weiter wie die blöden alle 2 Jahre das doppelte zahlen, dann lernen die nur noch 100 Euro draufzulegen. Ich hatte vielleicht auch vor eine neue 4k Karte zu kaufen. Momentan hab euch die Wahl zwischen absurd viel zahlen (Nvidia und AMD), ein beschnittenes Produkt (Nvidia) oder ein unfertiges produkt (AMD). Ich tendiere zu warten auf den refresh, der hoffentlich vernünftiger ist. Oder ich lass es bleiben und stell den 4 k auf full HD und zeige den Unternehmen den Finger.
Verlegt doch Mal bitte eure Grundsatzdiskussion woanders hin, das hilft dem TE überhaupt nicht. Ist das ein Kindergarten hier...
Er spielt hauptsächlich auf WQHD. Nutzt auch Mal einen 4k Fernseher. Mit den richtigen Reglereinstellungen wird er mit beiden Karten glücklich sein. Sollten die 12 GB dann doch Mal zicken machen irgendwann auf der Glotze muss er halt Mal nen Regler bedienen. Dadurch wird weder das Spiel schlechter noch sieht es schlechter aus. Diese ganzen alles muss Ultra Regler sind nur für Ego. Klar kann man sich darüber streiten, ob die Preise dann gerechtfertigt sind. Sicher nicht. So ist es aber nunmal zur Zeit. Gleiches gilt aber auch für die 7900xt und alle anderen Karten. Sorglos glücklich wird man dann vielleicht mit ner 4090, aber die steht gar nicht zur Debatte.
Beide kosten das gleiche, also ist und bleibt es persönliche Präferenz. Man kann einfach keine konkrete Empfehlung geben.
Der TE ist doch schon raus. Hier geht's tatsächlich nur noch um Sichtweisen. Aber gerade in Sachen Kaufberatung will man schon ein umfassendes Bild aufzeigen. Ist nunmal ein Forum. Da diskutieren die Leute über ihr subjektive Sicht. Hat sich doch alles zivilisiert. Verstehe dein Problem nicht, aber grundsätzlich sind wir hier fertig. Die Grundsatzdiskussion findet jetzt eher in den Kommentaren des Hogwarts Tests statt.
Vielleicht und noch nicht haben ist bei mir ein gewaltiger Unterschied zu bereits gekauft und nur Nvidia gsync, aber das hat halt besser in deine Argumentation gepasst. Ich halte mich Mal an die Fakten.
Du sprichst von Fakten und verdrehst diese im selben Moment so, dass sie dir in deinen Kram bzw. zu deiner Argumentation passen. Daher noch mal extra für dich: Sollte der TE den vom TE erwähnten Monitor in die engere Auswahl ziehen ist es nach meiner Meinung sinnvoll eine GPU von Nvidia zu kaufen.