Geforce 4090 Preisdrops vom 01.07-15.07 Erklärung? Und Graka Empfehlung

AGB-Leser schrieb:
Spart eine Menge Geld
ne Menge Geld?!? Meine 27 Zöller haben beide deutlich unter 200€ gekostet.

ohne auf Qualität, Ergonomik oder Schnickschnack zu achten - FHD 75Hz 27 Zoll
1693219767283.png


noch billiger wäre ja fast schon geschenkt 😁
man muss halt auf "Schnäppchen" warten

und ja - es gibt deutlich bessere Bildschirme als diesen hier nur wenn "Hauptsache Bild" ausreicht, warum nicht?

oder war dein
AGB-Leser schrieb:
Spart eine Menge Geld
auf FHD und höhere Auflösungen gemeint?
 
Er hat ein 4000€ Budget, will sich eine 4090 kaufen und ihr schlagt wirklich einen kleinen Full HD Monitor vor? :daumen:
 
  • Gefällt mir
Reaktionen: Darkseth88, DerDawn, Intruder und 3 andere
Intruder schrieb:
wo man absolut nicht sparen sollte, ist das Netzteil. Das Netzteil ist das wichtigste Bauteil in einem System und auch das wichtigste was einem hilft, Strom zu sparen - also effizient zu sein. Hier am falschen Ende gespart kann über die Jahre über Stromkosten wieder teurer werden.
Ich meinte auch nicht, dass man ein schlechtes Netzteil kaufen sollte. Nur, dass man kein unnötig großes kaufen braucht. ;)

AGB-Leser schrieb:
Joah, gekonnt die letzten Jahre ignoriert:
Und ab hier ist klar, was man von deinem Post halten soll. ;)

AGB-Leser schrieb:
Du solltest mittlerweile mitbekommen haben, dass man besser kauft, wenn man es braucht
Stell dir vor, das habe selbst ich mittlerweile. Deswegen würde ich niemandem, der in FHD spielen will, eine 4090 empfehlen. Weil man genau das eben nicht braucht.

AGB-Leser schrieb:
Dass Technik nicht billiger wird, sollte sich ja mittlerweile herumgesprochen haben
Deswegen habe ich von 700 € mit Inflation gesprochen. Wer aufgepasst hat, hat gemerkt, dass ich eine 300 €-Karte empfohlen habe und das 2x 300 eigentlich 600 ergeben würde.

AGB-Leser schrieb:
Außerdem hat der te geschrieben, dass er nicht aufrüsten will. Also muss man jetzt investieren
Es verbietet dem TE ja auch keiner das zu tun. Aber wirklich empfehlenswert ist das nicht und darauf habe ich hingewiesen.

Aber dass du das gleich so persönlich nimmst und hier dann so pseudoüberlegenen Käse posten musst...
 
  • Gefällt mir
Reaktionen: TomH22
Ayo34 schrieb:
eine 4090 kaufen und ihr schlagt wirklich einen kleinen Full HD Monitor vor? :daumen:
also ich habe ihm keinen FHD Bildschirm vorgeschlagen 😁
aber gegen FHD und 4090 spricht eigentlich nichts. Läuft perfekt und mit 27" denke ich auch eine gute Option für den Anfang und das extremst leise, kühl und effizient. Hatte das schon mit der 3090 gemerkt.
Die Karten sind 8K ready - bedeutet nicht das man sie auch als solche einsetzen muss 🙂

Nicht jeder hat Platz für solche Schätzchen wie 49" auf seinem Schreibtisch obwohl ich verdammt gerne zugreifen würde und das zwei mal... 5k Ultra Wide war das Ziel. Mal gucken ob ich sowas in einer geringeren Bildschirmgröße als 49" mal finde

Mehr als 80cm Breite für den neuen Bildschirm hätte ich auch vom Platz her nicht verfügbar.
 
@Intruder
Meinte eigentlich einen 4k-Monitor...je nach Ausstattungswunsch halt und je nachdem, was man für Ansprüche an die Bildqualität hat. Klar, FullHD gibs schon billig, die meine ich nicht ;)

wrglsgrft schrieb:
Und ab hier ist klar, was man von deinem Post halten soll. ;)
Bin ich zu hart, bist Du zu weich?

wrglsgrft schrieb:
Stell dir vor, das habe selbst ich mittlerweile. Deswegen würde ich niemandem, der in FHD spielen will, eine 4090 empfehlen. Weil man genau das eben nicht braucht.
Dann wirste die nächsten Jahre aber Augen machen...


wrglsgrft schrieb:
Deswegen habe ich von 700 € mit Inflation gesprochen. Wer aufgepasst hat, hat gemerkt, dass ich eine 300 €-Karte empfohlen habe und das 2x 300 eigentlich 600 ergeben würde.
Hat die 300€-Karte auch mindestens 16GB Speicher?

wrglsgrft schrieb:
Es verbietet dem TE ja auch keiner das zu tun. Aber wirklich empfehlenswert ist das nicht und darauf habe ich hingewiesen.
Das war der Wunsch vom TE, nicht meine Idee, sonst wäre aufrüsten durchaus eine Option

wrglsgrft schrieb:
Aber dass du das gleich so persönlich nimmst und hier dann so pseudoüberlegenen Käse posten musst...
Persönlich habe ich nichts genommen, aber wie es in den Wald schallt...
Ergänzung ()

Ayo34 schrieb:
Er hat ein 4000€ Budget, will sich eine 4090 kaufen und ihr schlagt wirklich einen kleinen Full HD Monitor vor? :daumen:
Wenn er die hohe Auflösung eh nicht mehr sehen kann, warum Geld für einen teuren Monitor verschwenden?
Meine 6900XT läuft übrigens auch bei Witcher 3 und Cyberpunk am Anschlag. Und das bei nicht mal 60Hz.
Also bekommt man, vor allem in der Zukunft, die 4090 erst recht ausgelastet
 
AGB-Leser schrieb:
Wenn er die hohe Auflösung eh nicht mehr sehen kann, warum Geld für einen teuren Monitor verschwenden?
Naja hat ja nicht nur mit "nicht sehen können" zu tun. Es gibt da auch andere Aspekte die mit einfließen.
Ich versuche das mal zu erklären:

wenn ich mir die Auflösung vom C64 in Erinnerung rufe, war das ein Meilenstein mit der Auflösung auf dem Amiga. Als dann der PC kam, musste ich mich auch erst mal wieder mit irgendwas pixeliger Grafik begnügen. 640x480 war dann irgendwann toll... man hat auf einmal alles klarer gesehen, mehr Content drum herum. Ein absoluter Mehrwert. Dann ging es weiter mit 800x600, 1024x768, 1152x864, irgendwann 1600 x 1200 und jedesmal, wenn ich eine Auflösung höher ging, wurde gefühlt das Fahrzeug, das Männchen in der MItte, welches ich mich durch die virtuelle Welt bewegte, kleiner und ich konnte nach rechts, links, oben und unten mehr sehen. Also ich bekam mehr Content auf den Screen.

Wie z.B. auf folgenden Bild zu erkennen:
1693228369084.png

je größer die Auflösung, umso mehr sehe ich von der Stadt auf dem Bildschirm. Den kompletten Inhalt würde ich mit 10k halt sehen.

Nun ist es aber so das man bei Games im Vergleich von FHD und 4K nicht, wie auf dem Bild zu sehen, das bisherige FHD als 25% ansehen kann und als 4K die restlichen 75% an Content zusätzlich angezeigt bekomme...
nein das Auto oder das von mir zu steuernde Männchen in der Mitte des Bildschirms bleibt genauso groß, ich habe identischen Content um mich herum wie ich auch schon mit dem FHD Bildschirm habe.

Und ich könnte meinen Arsch darauf verwetten das wenn ich FHD und 8K nebeneinander vergleiche, das dort mir identisches Bild wie 4K angezeigt wird. Also das genauso große/kleine Fahrzeug in der Mitte, die zu steuernde Figur ist noch immer so groß wie bei FHD... ich kann noch immer genauso weit nach rechts/links/oben/unten gucken und sehe nicht mehr Spielfläche so wie ich es bei Ultra Wide Screens hätte.

Der einzige Unterschied = mehr Detailstufe. Man erkennt einzelne Grashalme, Haarsträhnen und sonstigen Schnickschnack die toll aussehen aber mir nichts bringen. Ich will, so wie oben im Bild dargestellt, auch mehr Content bekommen.

"Nachteil" an der Geschichte ist, das ich für das bisschen mehr Detailstufe bei identischem Content auf dem Screen höhere Hardwarelast habe, höheren Stromverbrauch, höhere Wärmeentwicklung und dazu lautere Lüfter - eventuell Spulenfiepen und das nur für Grashalme und Haarsträhnen, die ich bei FHD vielleicht nur erahnen kann?

Und das ist eine Entwicklung, die mich persönlich stört und warum soll ich teures Geld für einen 4K Bildschirm ausgeben wenn mir FHD "identischen Inhalt" anzeigen kann? Also abgesehen von Details.

Damit ich mehr Content seitlich bekomme, muss ich zu Ultra Wide greifen. Am besten zu 32:9.
Nur wie sieht es mit mehr Content nach oben und unten aus? Am besten in Verbindung zu dem was mir Ultra Wide bietet?

Würde ich mir Stand heute, einen neuen Bildschirm kaufen müssen, dann wäre es wohl in Richtung 32:9 und 5120 x 1440 gehen nur dafür wird wohl die RTX 3090 im zweiten Rechner auf hohen Settings (auf Dauer) zu schwach sein
 
Vielen Dank für die vielen Antworten :)
Ich habe mir habe mir nach dem Tip das grade eine 4090 im SALE ist das System mit kleinen abweichungen gekauft. Ram passt jetzt auf jedenfall zum Board (Danke für den Hinweis)und das Netzteil habe ich auf 1000 Watt erhöht, falls wirklich mal wieder Schluckspechte ins System kommen. Es wird ja nicht mehr verbraucht nur weils Netzteil größer ist.
Zum Monitor, ich habe den Eizo FlexScan s2431w vor 14 Jahren gekauft . Wurde also schon im Vorgängersystem genutzt . Davor hatte ich 1,5 Jahre einen Sony TN Panel und das war so ätzend .. Ich habe zu der Zeit Doom3 und Alien vs. Predator 2 gepielt und der Unterschied zum CRT was schwarz angeht wasn schei ....
Als dann auf Prad der Eizo auftauchte und mit seinem Spva Panel in die näher von 16mls Reaktionszeit kam , war die Umstellung eine wolltat. Der war damals im Abverkauf weil der Nachfolger rauskam für ca. 850 Euro, das war es mir aber einfach wert. Ich müsste aber lügen , wenn ich nicht ab und an einen Shooter hatte wo das Pv Panel ...
Nur mitleierweile guck ich viel Netflix usw. der Monitor wird anders genutzt (Fernseher sogut wie garnicht mehr , wie werde ich ihn warscheinlich die nächsten 10 Jahre nutzen und danach kauf ich dann die Hardware (und die neuen Brillen^^ ).
Mein Geldbörse sagt 27 Zoll , der Rest sagt du hast über 10 Jahre nichts am System gemacht, jetzt gönn Dir mal was. Das jetzt die Graka alleine soviel kosten soll , wie mein altes System ohne Monitor ist ....
Die Zeiten wo ich für jeden Wing Commander teil mein System zerlegt und umgerüstet habe sind vorbei. Wakü usw. mach ich schon mit dem momentanen System nicht mehr.
Der Spass war irgendwie weg , es soll einfach möglichst lang laufen ohne das ich was machen muss , es sei den es geht was kaputt. Ich habe noch meine erste Windows 7 installation auf diesem System , hätte mir mal einer bei Win 95 erzählen sollen , den hätte ich ausgelacht.
Ich habe mich auch Jahre lang nicht mehr was Hardware angeht auf dem laufenden gehalten. M2 ssd war z.b eine richtige Überraschung für mich und die Graka Preise ;)
Ich war erlich gesagt sogar an überlegen ob ich das System überhaupt noch selber zusammen bauen soll... , obwohl es eigentlich sogar einfacher geworden ist. Da habe ich dann aber doch gespart :D
Wie gesagt vielen Dank für die vielen Antworten und hilfe.

Mfg Cyc70n
 
  • Gefällt mir
Reaktionen: Intruder und wrglsgrft
AGB-Leser schrieb:
Bin ich zu hart, bist Du zu weich?
Eher andersrum. Ich habe sachliche Kritik an deiner Aussage geübt. Du hast in persönlicher Art und Weise darauf reagiert. Und alles weitere:
AGB-Leser schrieb:
wie es in den Wald schallt...


AGB-Leser schrieb:
Hat die 300€-Karte auch mindestens 16GB Speicher?
Natürlich nicht. Aber 12 GB gibt es in dem Preisbereich. Und das ist aktuell ausreichend für FHD und wird auch im fraglichen Zeitraum für die allermeisten Spiele ausreichend bleiben.
Aber selbst wenn man auf der ganz sicheren Seite sein will, gibt es 16 GB schon ab 350 €.

AGB-Leser schrieb:
Dann wirste die nächsten Jahre aber Augen machen...
Ich denke, dass der Markt das regeln wird. Indien und China sind sehr große und damit für die Branche extrem wichtige Märkte. Hier ist der Wohlstand aber nicht so hoch, dass man von einer flächendeckenden Ausstattung mit so viel VRAM ausgehen kann (das ist ja selbst in unserem Kulturkreis nicht der Fall, wenn man sich die Steam-Statistik anschaut). Früher oder später werden die Entwickler also feststellen, dass sie sich da ein bisschen zusammen reißen müssen, wenn sie weiter Spiele verkaufen wollen.
Ja, zuletzt sind Spiele da immer hungriger geworden und die Ausstattung der Grafikkarten ist in der Hinsicht deutlich angestiegen. Aber deswegen allen Grafikkarten unter 16 GB VRAM ihre grundsätzliche Spielefähigkeit abzusprechen halte ich für sehr schwarzmalerisch.

Es bleibt also dabei, dass niemand eine 4090 braucht um FHD spielen zu können.
Dass es möglich ist, nahezu jede Grafikkarte in nahezu jeder Auflösung auszulasten heißt ja auch noch lange nicht, dass das sinnvoll ist. Der optische Mehrwert hält sich irgendwann stark in Grenzen.

Nochmal: Jeder kann tun und lassen, wie es ihm beliebt. Soll mich nicht jucken. Aber wir als Forum haben die Verantwortung aufzuklären und unter technischen und wirtschaftlichen Aspekten sinnvoll zu beraten.

Und damit kommen wir hierzu:
AGB-Leser schrieb:
Das war der Wunsch vom TE, nicht meine Idee
Der TE hat hier nachgefragt, weil er sich selbst unsicher ist. Korrekt wäre also, ihn auf die Auswirkungen seiner Wünsche hinzuweisen und ihm eine sinnvolle Empfehlung an die Hand zu geben. Selbst wenn man davon ausgeht, dass sich der VRAM-Bedarf von jetzt 12 GB für den FHD-worst-case auf 24 GB verdoppelt in den nächsten drei Jahren, gäbe es immer noch wirtschaftliche Alternativen zur 4090.
Eine 4090 zu einem FHD-Monitor vorzuschlagen war dann sehr wohl deine Idee.
Was bringt es, ihm solche Vorschläge ohne Kontext zu machen? Am Ende nimmt das irgendeine arme Seele ernst und ist dann völlig frustriert, wenn der beste Kumpel gefühlt die gleiche Leistung für einen Bruchteil des Preises erhält...
 
wrglsgrft schrieb:
Natürlich nicht. Aber 12 GB gibt es in dem Preisbereich. Und das ist aktuell ausreichend für FHD und wird auch im fraglichen Zeitraum für die allermeisten Spiele ausreichend bleiben.
Aber selbst wenn man auf der ganz sicheren Seite sein will, gibt es 16 GB schon ab 350 €.
naja eine "Acer Predator BiFrost Arc A770 OC, 16GB GDDR6, HDMI, 3x DP" für Gaming würde ich nicht gerade empfehlen. Schon gar nicht für geplante Laufzeiten vom TE 🙂

Wie gesagt ich habe selber 3090 + 4090 und spiele in FHD und auch dort ist der VRAM oft jenseits der 18GB belegt. Habe auch Games, die mal eben den kompletten VRAM füllen - ob es nötig ist oder Sinn macht, dahin gestellt und die Entwicklung wird sicherlich nicht irgendwo hängen bleiben.

Wer weiß? Vielleicht wird in 8 Jahren 24GB Mindestanforderung sein 😉
Stand heute würde ich niemanden mehr unter 16GB was empfehlen. Ob er FHD nutzt oder nicht.
Ergänzung ()

Cyc70n schrieb:
Das jetzt die Graka alleine soviel kosten soll , wie mein altes System ohne Monitor ist ....
ja das kann ich verstehen. Habe das auch 2x durch. Obwohl ich damals auf SLI gegangen bin und 2 GPUs im System verbaute und dann auch irgendwo bei 1400€ für die beiden Karten lag.
Cyc70n schrieb:
Ich habe noch meine erste Windows 7 installation auf diesem System , hätte mir mal einer bei Win 95 erzählen sollen , den hätte ich ausgelacht.
habe mein System von Windows 7 auf Windows 8 upgegradet und dann von dort zu 8.1 und weiter zu Windows 10. Leider war die Hardware für Windows 11 "zu alt" - nicht zu langsam meiner Meinung nach.
Habe hier auch erst dieses Jahr wieder nach 8 bis 11 Jahren Laufzeit der beiden Systeme aufgerüstet und die sollen nun auch 10 Jahre weiter laufen.

Und nein - auch nachdem ich die Settings immer weiter reduzierte und am Ende nur noch 30 fps hatte, hatte ich meinen Spielspaß nicht verloren. Mit FHD hat das super geklappt aber mit höherer Auflösung definitiv nicht.
 
Zuletzt bearbeitet:
@Intruder
Ja, Du hast mit den Beschreibungen ja recht. FullHD bleibt FullHD, da sind dann auch automatisch die Details quasi weg.

wrglsgrft schrieb:
Eher andersrum. Ich habe sachliche Kritik an deiner Aussage geübt. Du hast in persönlicher Art und Weise darauf reagiert. Und alles weitere:
Ja, wenn Du anfängst zickig zu werden, mache ich eben mit. Kein Ding.


wrglsgrft schrieb:
Aber selbst wenn man auf der ganz sicheren Seite sein will, gibt es 16 GB schon ab 350 €.
Da solltest Du aber dringend die schmale Anbindung beachten. Du spielst bestimmt auf die 4060 an. Waren das nicht nur 128Bit statt 386bit?

wrglsgrft schrieb:
, zuletzt sind Spiele da immer hungriger geworden und die Ausstattung der Grafikkarten ist in der Hinsicht deutlich angestiegen. Aber deswegen allen Grafikkarten unter 16 GB VRAM ihre grundsätzliche Spielefähigkeit abzusprechen halte ich für sehr schwarzmalerisch.
Habe nie gesagt, dass man das nicht spielen kann. Nur einigermaßen flüssig sollte es schon sein
wrglsgrft schrieb:
Dass es möglich ist, nahezu jede Grafikkarte in nahezu jeder Auflösung auszulasten heißt ja auch noch lange nicht, dass das sinnvoll ist. Der optische Mehrwert hält sich irgendwann stark in Grenzen.

Nochmal: Jeder kann tun und lassen, wie es ihm beliebt. Soll mich nicht jucken. Aber wir als Forum haben die Verantwortung aufzuklären und unter technischen und wirtschaftlichen Aspekten sinnvoll zu beraten.
Vor allem dem Wunsch dem TE entsprechen: Lange Laufzeit. Wenn Du lange Netflix schauen willst, musst Du eben einmal richtig was aufladen.
wrglsgrft schrieb:
Eine 4090 zu einem FHD-Monitor vorzuschlagen war dann sehr wohl deine Idee.
Was bringt es, ihm solche Vorschläge ohne Kontext zu machen? Am Ende nimmt das irgendeine arme Seele ernst und ist dann völlig frustriert, wenn der beste Kumpel gefühlt die gleiche Leistung für einen Bruchteil des Preises erhält...
Klar war die 4090 mit FullHD meine Idee. Die zehn Jahre Laufzeit waren aber immernoch nicht meine Idee, egal wie oft Du das wiederholst.
Klar, der Kumpel buttert zwei Jahre später dann eben wieder 400€ rein.
 
AGB-Leser schrieb:
Du spielst bestimmt auf die 4060 an. Waren das nicht nur 128Bit statt 386bit?
für 350€ bekommst du "Acer Predator BiFrost Arc A770 OC, 16GB GDDR6, HDMI, 3x DP"
 
AGB-Leser schrieb:
Die zehn Jahre Laufzeit waren aber immernoch nicht meine Idee, egal wie oft Du das wiederholst.
die 10 Jahre kommen von mir, weil ich das mache und nur als Bestätigung, weil der TE 6-8 Jahre Laufzeiten anstrebt 👍

und ich habe bestätigt, das 3090/4090 mit FHD perfekt klappt und auch der VRAM ausgelastet werden kann.

so und nu habt euch lieb und hört auf euch anzuzicken 😂
:stock::jumpin:
 
Ich hab ja nicht angefangen 😁

Die Intel Arc ist mittlerweile nicht mehr hergestellt und ja eher Einstiegssegment
 
Was lastet denn in FHD den VRAM der 4090 aus, wie viele Mods muss man da reinwerfen?
 
  • Gefällt mir
Reaktionen: wrglsgrft
AGB-Leser schrieb:
Wie sieht denn die Spieleleistung bei den Intelkarten aus?
naja... ich würde sie mir nicht wirklich holen / empfehlen - jedenfalls nicht über FHD hinaus

1440p

1080p


 
Intruder schrieb:
für Gaming würde ich nicht gerade empfehlen. Schon gar nicht für geplante Laufzeiten vom TE 🙂
Ich auch nicht. Aber nachdem es so dargerstellt wurde, als wäre der VRAM das Maß aller Dinge... ;)

AGB-Leser schrieb:
Die zehn Jahre Laufzeit waren aber immernoch nicht meine Idee, egal wie oft Du das wiederholst.
Ich hab das ja noch nicht mal behauptet. Von Wiederholung kann also keine Rede sein.

Madcat69 schrieb:
Was lastet denn in FHD den VRAM der 4090 aus, wie viele Mods muss man da reinwerfen?
Berechtigte Frage. Ich hab ja schon die Korken knallen lassen, als ich mal 12 GB voll bekommen habe. Mods nutze ich aber für gewöhnlich auch nicht.

AGB-Leser schrieb:
Die Intel Arc ist mittlerweile nicht mehr hergestellt
Intel hat nur die eigene Limited Edition eingestellt. Die Chips werden nach wie vor produziert und verkauft.

AGB-Leser schrieb:
ja eher Einstiegssegment
FHD ist ja auch Einstiegssegment. ¯\(ツ)
 
@Intruder
Bin erstaunt, dass die (alte) 3070 immernoch so gut mithält. Die INtel macht das hier eigentlich nur über den Preis
Ergänzung ()

@wrglsgrft
Dann muss ich wohl drigend meine 6900xt loswerden, da AMD ja keine Oberklasse mehr anbietet. ABer die meisten anderen Spiele laufen relativ flüssig. Und ja, Mods werden bei mir demnächst auch massiv eingesetzt
 
Madcat69 schrieb:
Was lastet denn in FHD den VRAM der 4090 aus, wie viele Mods muss man da reinwerfen?
wrglsgrft schrieb:
Berechtigte Frage. Ich hab ja schon die Korken knallen lassen, als ich mal 12 GB voll bekommen habe. Mods nutze ich aber für gewöhnlich auch nicht.
Sniper Elite 5 hatte ich schon mal laut GPU-Z bei 22GB VRAM gehabt und Diablo 4 grapscht sich auch gerne das, was es bekommen kann 😉 mal dahin gestellt ob es nötig ist.

Wenn ich D4 starte, fängt es bei mir gleich mit einer Auslastung des VRAM mit ca. 12GB an. Nach einiger Zeit, durch die Karte teleportierend kann es auch mal Richtung 18GB aufwärts gehen. Höchstwert, den ich bewusst wahrgenommen habe, waren bei D4 nach einigen Stunden 21GB VRAM Auslastung.

Liegt wohl daran das die Games gerne alles im VRAM vorhalten um somit Ladezeiten zu minimieren. Da kommt natürlich der VRAM zugute.

Und wenn ich solche Auslastung - ob sie auch wirklich berechtigt sind - schon mit FHD zeigen, wird das in höheren Auflösungen nicht anders sein.
Ergänzung ()

wrglsgrft schrieb:
Ich auch nicht. Aber nachdem es so dargerstellt wurde, als wäre der VRAM das Maß aller Dinge... ;)
maß aller Dinge = nein. Nur wenn ich sehe, wohin die Reise geht, kann VRAM nicht schaden.
Vor 10 - 11 Jahren waren 4GB normal. Kurze Zeit später 6, 8... wo sind wir heute?

wo werden wir in 3 oder 5 Jahren sein?
Guckt euch von neuen Games die empfohlenen Hardwareanforderungen an. Oft schreibt der Hersteller was von 16GB um das beste Ergebnis zu bekommen. In ein paar Jahren könnten schon 16GB Mindestanforderung sein.

Wer weiß das heute schon?
 
D4 ist so ein schönes Beispiel von nimmt sich was, braucht es aber nicht. Das ist bei derlei hoch angezeigtem VRAM-Verbrauch aber auch die Regel. Abseits von RT oder Mods fällt mir auf Anhieb nichts ein, was in der Auflösung soviel VRAM braucht.

Für halbwegs langfristige Sicherheit würde ich aktuell auch 16 GB wählen. Alles darunter könnte früher oder später zu knapp werden. Wie es sich genau entwickelt kann eh keiner vorhersagen, das hängt auch von der nächsten Konsolengeneration und den neuen Engines ab, UE5 scheint ja aktuell schon nicht ohne zu sein.
 
  • Gefällt mir
Reaktionen: Intruder und wrglsgrft
Zurück
Oben