Unentschlossen zwischen RTX 4060 TI 16 GB oder RTX 4070

Lurtz schrieb:
Diablo 4 mit den deutlich schärferen Ultra-Texturen.
Quatsch! Diablo 4 läuft selbst Nativ 1440p mit Ultra Textures seit Release butterweich mit einer 4070(Ti).
 
Zuletzt bearbeitet:
Ich habe mich jetzt auch für eine 4070 entschieden und für Photoshop und Co. ist der Vram noch deutlicher zu vernachlässigen.

MfG
Pitman
 
Lurtz schrieb:
Diablo 4 mit den deutlich schärferen Ultra-Texturen.
Und wie äußern sich diese angeblichen Probleme ?


Ich sehe dort kein Problem in 1440p+DLSS, 1440p nativ, 4K+DLSS oder 4K nativ !?

Lurtz schrieb:
Ratchet & Clank Rift Apart mit deutlich schärferen Very High-Texturen

Auch da sehe ich irgendwie keine Probleme also woher kommen diese Mythen ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BiggestB
Aber man sieht schon jetzt 11GB VRam mit RTX on. Bei 12 GB ist nicht mehr viel Schmalz für später vorhanden. Ich umkreise die 4070ti schon lange, da sie eigentlich genau das ist was ich suche, aber 12 GB eben. Wollte nach vielen Jahren AMD mit R9 290 mal wieder zu Nvidia, aber irgendwas hindert mich. Es riecht doch eher nach ner 7900XT

Da kann ich das bei der 4070 non Ti eher verschmerzen. Aber letztlich für den TE definitiv 4070 > 4060Ti.
 
Um das Gameplay in Diablo 4 flüssig zu halten, wird die Textur Qualität dynamisch im Spiel etwas heruntergesetzt, bereits bevor der VRAM zuneige geht. DLSS 3 hilft ebenfalls mit, den vorhandenen VRAM optimal auszunutzen. Die sporadisch auftretenden Qualitätsunterschiede merkt der Nutzer in der Regel ohne Zoom nicht.

In dem Spiel RE4 Remake gibt es keine dynamische Anpassung der Qualität, wenn FSR auf OFF steht. Daher crashed der Treiber, wenn der VRAM ausgeht. Auch 12 GB Karten auf 4K MAX RT On. Das Spiel reserviert auch mehr als 16 VRAM, wenn es kann. Im Jahr 2023.

Geht der VRAM bei Spielen wie Diablo 4 aus, wird mit Perfomance Einbußen in den RAM gestreamt. Auch mit einer 4070TI. Dazu muss man nur die RAM Auslastung mit der Zeit beobachten. Von den Einbußen weißt du nur nichts, weil du keine Vergleichsmöglichkeiten hast, die du mit einer z.b. 4070TI 24GB hättest. Problematik Äquivalent zur 4060TI 8GB und 4060TI 16GB Zukunftsorientiert. Siehe Video unten.


Hier die VRAM Allokation unter einer RTX 4090. Über 20 GB. Was passiert dann wohl mit 12 GB Karten, auch mit der Zeit? Richtig. RAM Auslagerung, Perfomance Einbußen und Micro Stuttering, die man an den Ausreißern bei den Frame Times und 1% Lows sieht mit Frame Einbrüchen.


Hier ein Beispiel, wie Perfomance Einbußen aussehen können, wenn der VRAM ausgeht. Hier überholt die 3060 mit 12 GB die 3070 mit 8 GB in 4K, weil der VRAM ausgeht. Warum ist das so? Weil überschüssige Daten in den langsameren RAM ausgelagert werden müssen, um schnell Platz für neue Daten frei zu schaufeln. (Heute sind die Spiele mit DLSS 3 und FSR 3 etwas weiter und umschiffen das Problem).


Wenn man die VRAM Problematik Videos von dem Typ anschaut, wird man es verstehen. Hier so ab Minute 34 genau hinhören.
Ergänzung ()


bettsi schrieb:
Aber man sieht schon jetzt 11GB VRam mit RTX on. Bei 12 GB ist nicht mehr viel Schmalz für später vorhanden. Ich umkreise die 4070ti schon lange, da sie eigentlich genau das ist was ich suche, aber 12 GB eben. Wollte nach vielen Jahren AMD mit R9 290 mal wieder zu Nvidia, aber irgendwas hindert mich. Es riecht doch eher nach ner 7900XT

Da kann ich das bei der 4070 non Ti eher verschmerzen. Aber letztlich für den TE definitiv 4070 > 4060Ti.
Die 12 GB sind da bereits ausgegangen. Die Karte arbeitet die ganze Zeit nicht nur auf Anschlag, sondern auch mit Überlauf. Deswegen steht der VRAM bei 4K fest getakert bei 10.7GB.

Ich denke, das die RTX 5000 Serie einen Sprung mit dem VRAM machen wird. Ich hoffe, das die VRAM Problematik, die bereits mit der RTX 3000 Serie sichtbar wurden, der Vergangenheit an gehören.

 
Zuletzt bearbeitet:
Alex214AS schrieb:
ch denke, das die RTX 5000 Serie einen Sprung mit dem VRAM machen wird. Ich hoffe, das die VRAM Problematik, die bereits mit der RTX 3000 Serie sichtbar wurden, der Vergangenheit an gehören
der war gut - das ist doch die Strategie dahinter, wenig Vram, damit du "schnell" wieder upgradest.
 
Ja, die Strategie gehört definitiv dazu.

Die geplante Obsoleszenz ist eine umstrittene Geschäftspraxis, bei der Hersteller Produkte bewusst so gestalten, dass sie eine begrenzte Lebensdauer haben oder nach einer gewissen Zeit nicht mehr funktionieren. Dies geschieht aus verschiedenen Gründen:

1. Profitmaximierung: Hersteller können durch die geplante Obsoleszenz sicherstellen, dass Verbraucher ihre Produkte regelmäßig ersetzen müssen, was zu wiederholten Verkäufen führt.
2. Wettbewerbsvorteil: Durch die Herstellung von Produkten, die schneller veralten, können Unternehmen ihre Konkurrenzfähigkeit aufrechterhalten, indem sie ständig neue Modelle auf den Markt bringen.
3. Reparaturhindernisse: Produkte werden oft so konstruiert, dass Reparaturen schwierig oder teuer sind, um die Verbraucher dazu zu ermutigen, neue Produkte zu kaufen.
4. Kosteneinsparung: In einigen Fällen wird die Qualität von Bauteilen absichtlich reduziert, um die Produktionskosten zu senken, was die Haltbarkeit beeinträchtigen kann.

Die geplante Obsoleszenz hat jedoch einige nachteilige Auswirkungen:

1. Umweltauswirkungen: Kurzlebige Produkte führen zu mehr Abfall und tragen zur Verschwendung von Ressourcen bei.
2. Kosten für Verbraucher: Verbraucher müssen häufiger für Ersatzprodukte aufkommen, was ihre finanzielle Belastung erhöht.
3. Reparaturbarrieren: Die Schwierigkeit der Reparatur kann dazu führen, dass Verbraucher gezwungen sind, teure Reparaturdienste in Anspruch zu nehmen oder Produkte einfach zu entsorgen.

In einigen Ländern wurden Gesetze und Vorschriften eingeführt, um die geplante Obsoleszenz einzuschränken und die Lebensdauer von Produkten zu verlängern. Dennoch bleibt dieses Thema Gegenstand von Debatten und Bemühungen, um Verbraucher und Umwelt zu schützen.
 
Sorry, hier stehen einfach viele Halbwahrheiten mit zusammengesuchten Videos.

Alex214AS schrieb:
Um das Gameplay in Diablo 4 flüssig zu halten, wird die Textur Qualität dynamisch im Spiel etwas heruntergesetzt, bereits bevor der VRAM zuneige geht. DLSS 3 hilft ebenfalls mit, den vorhandenen VRAM optimal auszunutzen. Die sporadisch auftretenden Qualitätsunterschiede merkt der Nutzer in der Regel ohne Zoom nicht.
Völliger Nonsense + Trifft bei D4 definitiv nicht zu.

Alex214AS schrieb:
Geht der VRAM bei Spielen wie Diablo 4 aus, wird mit Perfomance Einbußen in den RAM gestreamt. Auch mit einer 4070TI. Dazu muss man nur die RAM Auslastung mit der Zeit beobachten. Von den Einbußen weißt du nur nichts, weil du keine Vergleichsmöglichkeiten hast, die du mit einer z.b. 4070TI 24GB hättest. Problematik Äquivalent zur 4060TI 8GB und 4060TI 16GB Zukunftsorientiert. Siehe Video unten.

Wenn der VRAM ausgeht antwortet Diablo 4 mit Microstuttering, das ist richtig.

Das passierte zu Releasezeiten aber wenn überhaupt bei 12 GB erst ab 4k Nativ.
1440 lief seit Beginn mit Ultra Textures ohne Probleme, 4K läuft mittlerweile ebenfalls.

Zudem hatte das Game am PC ein vom Entwickler bestätigtes Memory Leak Problem, welches seit Patch 1.1.1 sukzessive gefixed wurde. (Spielbar war es aber vorher auch)

Resident Evil habe ich keine nähere Kenntnis, aber zumindest schreibt Computerbase folgendes:
"Ab 16 GB gibt es keinerlei Probleme mit dem Speicher, ob auch 12 GB ausreichen, hat die Redaktion noch nicht getestet. In Ultra HD adressiert das Spiel ohne Raytracing bis zu 12,3 GB an Speicher, mit den Strahlen sind es bis zu 13,4 GB. Rein vom Gefühl sollten 12 GB VRAM genug sein"

Heißt für mich: In 1440p definitiv keine Probleme, mit UHD sollte es ebenfalls laufen.
Das RE ein AMD Sponsored Titel ist sollte ebenfalls klar sein.

Alex214AS schrieb:
Hier die VRAM Allokation unter einer RTX 4090. Über 20 GB. Was passiert dann wohl mit 12 GB Karten, auch mit der Zeit? Richtig. RAM Auslagerung, Perfomance Einbußen und Micro Stuttering, die man an den Ausreißern bei den Frame Times und 1% Lows sieht mit Frame Einbrüchen.
Memory Allocation hat mal eben gar nichts mit real genutztem Speicher zu tun. Hättest du zu Diablo 4 Releasezeiten mit einer Quadro 8000 gezockt, wären wahrscheinlich 30GB allokiert gewesen.

Zudem Memory Leak siehe oben.

Alex214AS schrieb:
Hier ein Beispiel, wie Perfomance Einbußen aussehen können, wenn der VRAM ausgeht. Hier überholt die 3060 mit 12 GB die 3070 mit 8 GB in 4K, weil der VRAM ausgeht. Warum ist das so? Weil überschüssige Daten in den langsameren RAM ausgelagert werden müssen, um schnell Platz für neue Daten frei zu schaufeln. (Heute sind die Spiele mit DLSS 3 und FSR 3 etwas weiter und umschiffen das Problem).
Hier gehts aber nicht um eine 3070 mit 8GB in 4K.
Diese Karte war bereits zu Release bei einigen Titeln mit 1440p überfordert.



Nochmal:
Das eine 4070 / 4070Ti keine uneingeschränkte 4K Karte ist, sollte klar sein.
Ich würde aber trotzdem behaupten, dass in 95% der Fälle VRAM-technisch auch 4K kein Problem darstellt. (Mal unabhängig von der Rohleistung der Karten)

Für 1440p (für das die Karten gedacht sind) gibt es in der Praxis hinsichtlich VRAM aktuell quasi nirgends Probleme. Dafür punkten die Karten mit sehr guter Effizienz und klasse Featureset.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SonyFriend
Ich wollte wegen meinem Case und dem Dual BIOS unbedingt eine Karte von ASUS haben.

Auch da stehe ich vor der Wahl zwischen 4060 TI 16 GB und der 4070 OC. Die Preise sind allerdings bei NVidia extrem stabil und fallen kaum.

Während die 4060 TI 16GB bei 500 € liegt, muss man für die 4070 derzeit 650 € hinblättern. 150 € mehr.

Die 4070 scheint wohl rund 20 % mehr Leistung zu haben. Preislich entspricht das ungefähr dem Aufschlag.

https://www.videocardbenchmark.net/high_end_gpus.html
 
Zuletzt bearbeitet von einem Moderator:
Die RtX 4070/4070ti wird genau das gleiche Schicksal ereilen wie die 3070/3070ti. Heute Hui, 2024 Pfui!
Genau das gleiche Konzept. Karten die alles zu einer super Karte haben aber mit zu wenig Speicher. Die 4070er werden 2024 genauso zu guten FHD Karten verkommen wie die 3070er. Die 3070er wollte nach kurzer Zeit auch keiner mehr haben.
 
fundeath schrieb:
Die 3070er wollte nach kurzer Zeit auch keiner mehr haben.
Einspruch!
Gerade die 3070 haben wir extra von ca. 1 Jahr gekauft, und der Anwender spielt in FullHD@Low@240fps.
Hat meine 6700XT damals nicht geschafft.
 
fundeath schrieb:
Die 4070er werden 2024 genauso zu guten FHD Karten verkommen wie die 3070er. Die 3070er wollte nach kurzer Zeit auch keiner mehr haben.
Tja so geht es auch meiner 6900xt, degradiert von 4k auf 2k und seitdem es RTX leicht zu kaufen gab wollte Die auch Keiner haben ausser für einen Appl und Ei.
 
Genau
SonyFriend schrieb:
Einspruch!
Gerade die 3070 haben wir extra von ca. 1 Jahr gekauft, und der Anwender spielt in FullHD@Low@240fps.
Hat meine 6700XT damals nicht geschafft.
Genau wie ich es gesagt habe, FHD! Die Leistung reicht aber locker für WQHD. Leider steht der Speicher im Weg.
 
Sollte die 4070Ti Super wirklich für 850 Euro erscheinen wäre das eine grundsolide Karte!

fundeath schrieb:
Die RtX 4070/4070ti wird genau das gleiche Schicksal ereilen wie die 3070/3070ti. Heute Hui, 2024 Pfui!
Genau das gleiche Konzept. Karten die alles zu einer super Karte haben aber mit zu wenig Speicher. Die 4070er werden 2024 genauso zu guten FHD Karten verkommen wie die 3070er. Die 3070er wollte nach kurzer Zeit auch keiner mehr haben.
Quatsch es ist genau andersrum.
Eine 3070 mit 16Gb gibts doch, nennt sich 4060Ti 16GB.
Wer will die Karte? Richtig, so ziemlich niemand weil die Rohleistung einfach mittlerweile zu schlecht ist.

Für 1440p ist die 4070Ti auch 2024 (Achtung Wortwitz) super aufgestellt.

In 12 Monaten werden die Karten dann ohnehin wieder neu gemischt.
 
Sorry aber du hast nicht verstanden was ich geschrieben habe! Ich habe einen Vergleich zum NVIDIArschen Konzept gezogen. Und nicht den Leistungsvergleich zwischen 3070 und 4060/4070.
Das NVIDIA noch 16GB Karten zu einem wahrscheinlich noch unverschämteren Preis raus bringt setzt dem ganzen noch die Krone auf.
 
Zuletzt bearbeitet:
Ist halt wie bei CPUs: wenn der Anwender nicht weiss, was er mit seinem Equipment macht/machen will, zahlt er entweder zu viel oder er ärgert sich zu tode, dass er nur kurzfristig Geld gespart hat.
Aber ich bin vermutlich der einzige, der den aktuellen Preise seiner 4070 nicht unverschämt fand und für seine Nutzung liebend gerne zu NVidia und nicht zur Konkurenz gegriffen hat.
 
  • Gefällt mir
Reaktionen: T4chY0n und BiggestB
glaskugel-modus an.
wird sich GTA 6 mit 12gb begnügen, oder sind 16gb schon von vorteil?
 
Zurück
Oben