Wie viel Jahre reichen 8GB Vram noch bei Full HD?

DaHell63 schrieb:
Und wer zwingt mich eine 4-8K Textur …

DaHell63 schrieb:
Man muß also nicht zwingend die höchste Texturstufe (in kleineren Auflösungen) wählen um ein Spiel ansehnlich bleiben zu lassen
Es zwingt dich auch niemand mit 144fps zu zocken, es reichen ja auch 24-30fps

Wenn man jetzt danach geht, wurden wir bei 720p 30fps dx9 Grafik festhängen
 
Oder aber die pragmatische Lösung...auch wenn OT
rtx3090er.jpg
 
  • Gefällt mir
Reaktionen: HisN
GERmaximus schrieb:
Es zwingt dich auch niemand mit 144fps zu zocken, es reichen ja auch 24-30fps

Wenn man jetzt danach geht, wurden wir bei 720p 30fps dx9 Grafik festhängen
Texturen von Ultra auf Hoch zu stellen, die hälfte an Vram zu benötigen und maximal 1-2% weniger optik zu haben würde ich jetzt nicht mit einer 24 fps Ruckelorgie gleich setzen, die an unspielbarkeit grenzt.
30 fps bei Konsolen funktionieren auch nur, weil es mit Motion Blur des Todes überdeckt wird. Evtl spielen diese zwischenbild-berechnungen von TVs auch eine Rolle dabei.

Gerade bei den Grafikpreisen aktuell finde ich die Textur-reduktion von Ultra auf Hoch bei den 3 Games, die mehr als 8gb füllen, doch eine sinnvollere alternative, als sich für 2400€ eine neue Grafikkarte zu kaufen.
 
  • Gefällt mir
Reaktionen: wolve666
Darkseth88 schrieb:
Gerade bei den Grafikpreisen aktuell finde ich die Textur-reduktion von Ultra auf Hoch bei den 3 Games, die mehr als 8gb füllen, doch eine sinnvollere alternative, als sich für 2400€ eine neue Grafikkarte zu kaufen.

Da hast du recht.
Oder man kauft sich ein Konkurrenz Produkt mit mehr Speicher und weniger kosten
 
GERmaximus schrieb:
Es zwingt dich auch niemand mit 144fps zu zocken, es reichen ja auch 24-30fps

Wenn man jetzt danach geht, wurden wir bei 720p 30fps dx9 Grafik festhängen

Du wettest voll dagegen, daß die 8 Gb in FHD demnächst nicht mehr reichen und bringst als Beweis 4K Benchmarks mit Raytracing.
Wenn man dann anmerkt, daß HD Texturen, wenn es mal nicht reichen sollte, in 1080p visuell überhaupt nicht nötig sind, kommst Du mit der Fortschrittsschiene...echt?
Du zockst alle fordernden Raytracing Spiele natürlich maxed out. Nicht? Wie kommst Du dann darauf, daß ein RTX 3060Ti/RTX 3070 User das tun muß?
 
Zuletzt bearbeitet:
DaHell63 schrieb:
Du wettest voll dagegen, daß die 8 Gb in FHD demnächst nicht mehr reichen und bringst als Beweis 4K Benchmarks mit Raytracing.
Nicht nur. Hast du dir die links überhaupt angeguckt? Und wie soll man sonst auf den zukünftigen Verbrauch kommen, wenn man nicht über seinen Tellerrand guckt?

DaHell63 schrieb:
Wenn man dann anmerkt, daß HD Texturen, wenn es mal nicht reichen sollte, in 1080p visuell überhaupt nicht nötig sind,
Behauptest du, nötig nicht nötig, ja da haben wir es wieder

DaHell63 schrieb:
kommst Du mit der Fortschrittsschiene...echt?
Ja womit denn sonst? Mit Rückschritt und stagnation? Und wie war die Frage? Wie es ZUKÜNFTIG aussieht. Was gibts in der Zukunft? -> Fortschritt

DaHell63 schrieb:
Du zockst alle fordernden Raytracing Spiele natürlich maxed out. Nicht?
Alle vram lastingly settings ja, tut aber auch nichts zur Sache

DaHell63 schrieb:
Wie kommst Du dann darauf, daß ein RTX 3060Ti/RTX 3070 User das tun muß?
Tuen muss? Sagte ich nicht.
Aber wenn man schon jetzt nicht maxed out (vom vram her) zocken kann, wird es in 4-5 Jahren wohl erst recht bescheiden aussehen.
Und das wollte der te wissen.

Also ernsthaft, der te will wissen wie es zukünftig mit seinen 8gb vram steht und dann ziehst du aktuelle reduzierte Grafik als Standpunkt heran?
Und begründest das damit das man hd texturpacks nicht brauch?
Ja dann brauch man ja auch nur 720p und 30fps nach der Logik
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SoDaTierchen und loser
GERmaximus schrieb:
Also ernsthaft, der te will wissen wie es zukünftig mit seinen 8gb vram steht und dann ziehst du aktuelle reduzierte Grafik als Standpunkt heran?
Er hat weder was von 4K, noch maxed out, geschweige denn was von Raytracing geschrieben....wie deine gezeigten Beispiele. Im Gegenteil...FHD....hohe bis ultra Einstellungen...kein Raytracing.

TE.jpg


Aber klar.....als Nvidia FHD User muß man sich nach den 4K maxed Tests richten. Als AMD User sind reduzierte Einstellungen natürlich kein Thema. Du kannst ja mal ein Video posten in dem man in FHD einen Unterschied zur zweithöchsten Texturstufe sieht....wenns nötig ist. Vielleicht kann ich es mit der RX 6800 nachstellen, mit der ich auch heute schon Einstellungen/Grafik reduzieren muß....

Es ist immer wieder erstaunlich wie ihr andere User mit Mitrange Karten in ein Schema pressen wollt an das Ihr euch aber mit Highend Karten anscheinend nicht zu halten braucht.
 
DaHell63 schrieb:
Es ist immer wieder erstaunlich wie ihr andere User mit Mitrange Karten in ein Schema pressen wollt an das Ihr euch aber mit Highend Karten anscheinend nicht zu halten braucht.
Erstaunlich ist eher, wie hart du pauschalisierst, um deine "Argumentation" zu stützen. Du unterstellst dem TE, dass er sich doch bitte mit mittleren Details zufrieden stellen soll. Was ist, wenn ihm das in einem Titel aber zu hässlich aussieht und er lieber in Maximum spielen will, dort aber selbst in FullHD 8GB nicht reichen? Dann hast du ihm gesagt, es ist alles gut, dabei findet er es scheiße.

Die Frage war: wie lange reichen 8gb vram bei hohen bis ultra Details. Die Antwort war ein klares: es kommt drauf an. Und zwar auf das persönliche empfinden. In mittleren Details wird man vielleicht noch 2 Jahre hinkommen. Oder 6. Aber innerhalb der persönlichen Schmerzgrenze könnte man noch 20 Jahre hinkommen. Oder seit 4 Jahren weinen. Die Frage lässt sich schlicht nicht pauschal beantworten.

Selbst wenn man sich jetzt entgegen persönlicher Präferenz auf "hoch" versteift: traust du dich eine Prognose? Ich nicht. Hängt halt zu sehr von empfinden ab.
 
Ich tu was? Es geht um eine einzige Einstellung....Texturen auf zweithöchste Stufe, wenn es in 1080p nötig werden sollte....dann gibt es das Problem nicht mehr. Die Einstellungen hoch/ultra hängen wohl immer noch mit der Chipleistung zusammen. Und davon war nie die Rede.
Wie Du darauf kommst ich hätte dem TE nahe gelegt er soll sich mit mittleren Details zufrieden geben weißt wohl nur Du.
 
Ich grabe den alten Artikel mal aus. Im Endeffekt alles eine Frage der Qualitätseinstellung. Hatte zuletzt die GTX 780 TI 3 GB im Zweitrechner. Es liefen alle Spiele, jedoch oft mit niedrigen Qualitätseinstellungen - so gesehen wird man mit 8 GB noch sehr lange hin kommen - mit Qualitätseinbußen. Hier mal ein Video zu Cyberpunk 2077

Die Spielehersteller versuchen die Titel so zu optimieren, dass Sie auf möglichst vielen Systemen laufen. Gerade Online-/Multiplayertitel sind hier meistens recht gut optimiert.

Ein größeres Problem kann der Treibersupport werden. Fortnite machte bei mir mit der GTX 780 TI Probleme und stürtze ab und zu ab, was mir mit der RTX 2060 z.B. nicht passierte. Die Treiber werden nach 9 Jahren dann leider nicht mehr aktualisiert. Genause kann es sein das nach 8-10 Jahren auch gewisse Funktionen vorausgesetzt werden. Hier sollte man dann aber auch realistisch bleiben und akzeptieren das nach ca. 8-10 Jahren die Grafikkarte Ihren Dienst getan hat.
 
Zurück
Oben