Dicke GPUs bei HD-Auflösung unnötig oder nicht?

Crosser71

Lieutenant
Registriert
Apr. 2021
Beiträge
722
Hallo Freunde von CB,
ich habe mal eine Frage, die ich mangels eigener Kenntnis nicht beantworten kann.
Warum werden die dicken GPUs immer extra für WQHD bzw. 4K beworben und als hier sinnvoll bezeichnet? Sicherlich ist der CPU-Anteil bei HD-Auflösung höher zu berücksichtigen aber wenn es mir bei einem AAA-Titel (mit low settings) um die maximalen FPS geht (nicht nur flüssig spielbar), und ich eine starke CPU habe, macht doch auch z.B. eine RTX3080/ti mehr Sinn als eine 3070.
Aber ich lese so häufig, dass es wenig Sinn macht. Ist der Mehrwert einer großen GPU so gering? Wenn ich mir die Benchmarks so anschaue, ist dem eigentlich nicht so.
Warum liest man das also so häufig? Weil es den meisten nur um normale spielbarkeit geht?
 
Was Sinn macht und was nicht hängt immer davon ab, was der jenige erreichen will der es kauft und was er dafür bereit ist auszugeben.

Dass dicke GPUs unterhalb von 4k oder WQHD pauschal sinnlos sind kann man schlicht nicht sagen.
 
  • Gefällt mir
Reaktionen: Sapphire Fan, inge70, MindofRafi und 5 andere
Weil es irgendwann (vor allem finanziell) kaum mehr Sinn macht. Ob man nun (außer vielleicht bei CS:GO) dann 190 oder 250 FPS in 720p hat merkt kaum einer und selbst wenn, der Vorteil oder das Spielgefühl unterscheidet sich quasi nicht.

Alles eine Frage der Ansprüche und des (eigenen) Gefühls. Es gib Leute die 30 FPS als völlig ausreichend empfinden. Der Unterschied zu 60 ist natürlich groß, aber viele stört es einfach nicht.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Immer wenn Deine Graka 95% oder mehr Last anzeigt, dann wäre eine stärkere Graka nötig um mehr FPS zu generieren.
Völlig unabhängig von den ungenannten Games, völlig unabhängig von der Auflösung, völlig unabhängig was LOW-Settings tatsächlich bedeutet.

Warum führt ihr so eine Diskussion immer akademisch, wenn es doch wahrscheinlich um ein konkretes Problem geht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: niteaholic, Graphixx, Zwirbelkatz und 3 andere
Crosser71 schrieb:
Warum werden die dicken GPUs immer extra für WQHD bzw. 4K beworben und als hier sinnvoll bezeichnet?
Weil einige Leute gerne generalisieren. ;)

Tendenziell sind die aktuellen Grafikkarten für FullHD "gut genug", aber nicht gut genug für 4K.
Das ist aber von Spiel zu Spiel unterschiedlich....oft kann man extrem viel über die Optionen anpassen, und eine höhere Auflösung "anständig zum laufen bringen", ohne spürbar an der Optik zu sparen.


Ich hatte erst eine Vega64 und einen FullHD Monitor.
Und ich war alles in allem mit der GPU Leistung zufrieden...wenn es geht, peile ich 75FPS+ an(abhängig vom Spiel)....dann habe ich einen 1440p 144Hz Monitor gekauft, und was vorher gut ging, lief jetzt "unschön".

Dann habe ich, mehr aus Bastelwillen, als aus Zwang, eine Radeon VII gekauft und dann passte es wieder.

Jetzt sind aber immer neuere Spiele in meiner Bibliothek erschienen ;) und ich habe das Gefühl, als bräuchte ich wieder mehr GPU Leistung, um diese mit hübschen Settings, flüssig spielen zu können.
Aber das sind nur einzelne Spiele!
Andere wären auch in 4K CPU limitiert.....oder laufen mit jeder Hardware sehr schnell....oder mit keiner Hardware annehmbar.

Man muss es eigentlich immer individuell von den Spielen und individuellen Anforderungen abhängig machen.
Eine sehr komplizierte und ungenaue Sache, die Leute dazu drängt einfach Parolen wie: "Für FullHD brauchst du keine gute GPU" verleiten lassen.
 
  • Gefällt mir
Reaktionen: Demon_666
HisN schrieb:
Immer wenn Deine Graka 99% Last anzeigt, dann wäre eine stärkere Graka nötig um mehr FPS zu generieren.
Völlig unabhängig von den ungenannten Games, völlig unabhängig von der Auflösung, völlig unabhängig was LOW-Settings tatsächlich bedeutet.

Warum führt ihr so eine Diskussion immer akademisch, wenn es doch wahrscheinlich um ein konkretes Problem geht.
Wirklich immer ? Gibt auch Spiele die so scheisse optimiert und als "Alpha Versionen" auf den Markt kommensind und die Graka auf 100% bringen. und das obwohl die Grafik nix weltbewegendes ist.. ;)
 
Es hängt von deiner Software, der Nutzungsdauer und deinen Ansprüchen ab, welche Karte du dir kaufen möchtest. Je höher die Karte zu dem Zeitpunkt rangiert, desto schlechter wird das P/L-Verhältnis. Das ist mit so ziemlich jedem Luxus- und Prestigeprodukt so.

Crosser71 schrieb:
Aber ich lese so häufig, dass es wenig Sinn macht.
Was man für sein Hobby zahlen möchte und wie lange man dafür gespart hat, sollte eine persönliche Entscheidung sein. Genauso gut könnte man jeden Raucher oder den täglichen Kauf von RedBull verurteilen. Derlei Form von Geldverschwendung findet allerdings nie Einzug in die Diskussion.

Manchmal habe ich den Eindruck, dass das Hobby so günstig geworden ist, dass es selbst diejenigen Kunden angezogen hat, die eine fragwürdige Vorstellung von Investition/Zahlungsmoral und Qualitätsanspruch haben.

Spiele sollen 5€ kosten, fehlerfrei programmiert sein und auf ultr4! laufen - und das für 100€ über 3 Jahre. Klar, der Wiederverkaufswert der Hardware wird gleich mit unter den Tisch fallen gelassen. Da wäre wahrscheinlich selbst Angeln oder Radfahren teurer ;)
 
  • Gefällt mir
Reaktionen: Baal Netbeck
ich gehör zu denen, die auch eine 3090/6900XT mit FHD nutzen würden. Alles auf VLTR4 und dazu high-fps? Für mich eine klare win-win Situation.

Oder betrachte es anders: ein solches Kaliber mag heute für FHD überdimensioniert sein, aber ich nutze meine Karte lieber 3-5 Jahre anstatt dass ich alle 1-2 Jahre wechseln muss weil ich 4K will.
 
  • Gefällt mir
Reaktionen: Demon_666, H3llF15H, RaptorTP und eine weitere Person
"Sinn machen" ist keine deutsche Redewendung und kommt aus dem Englischen "to make sense".
Das ist aber nicht korrekt, denn etwas kann im Deutschen nur Sinn haben oder ergeben .

Zu deiner Frage:
Natürlich kann man auch ne 3090 auf FHD betreiben um die letzen FPS rauszuquetschen.
Fand es übrigens auch unpassend, dass man hier auf CB die ganzen E-Sports Titel nur mit maximal Midrange-Karten getestet hat. Sofern Engine und CPU da mitmachen, skalieren viele Titel auf FHD schön weiter nach oben.
 
  • Gefällt mir
Reaktionen: cyberpirate
Captain Mumpitz schrieb:
ich gehör zu denen, die auch eine 3090/6900XT mit FHD nutzen würden. Alles auf VLTR4 und dazu high-fps? Für mich eine klare win-win Situation.

Oder betrachte es anders: ein solches Kaliber mag heute für FHD überdimensioniert sein, aber ich nutze meine Karte lieber 3-5 Jahre anstatt dass ich alle 1-2 Jahre wechseln muss weil ich 4K will.
Genau so sehe ich das auch. Mir reicht Full HD aus und wie oft habe ich gehört bekommen das meine 3070 dafür überdimensioniert wäre ? Hey ich will die Karte in 3 Jahre immer noch nutzen während andere die in höhere Aufllösungen spielen, sich überlegen müssen ne neue Karte zu holen...
 
Natürlich macht das Sinn Dicke GPU was ne Frage.
Selbst in Full HD das Beste rausholen.

Klar ne RTX 3080 wäre wohl Übertrieben. Aber ne RTx 3070. Geh mal Sytemsteurung was du da alles einstellen kannst selbst die zwingst du in Full HD in die Knie
 
Wenn man per FPS Lock spielt (also V-Sync ON) und eben auch nur ein 60-75Hz Bildschirm mit FullHD, dann macht es wirklich keinen Sinn.

Wenn du aber schon weißt das du dieses Jahr noch nen 21:9 mit 3440x1440 holen willst, ist das auch wieder hinfällig.

Oder du gehörst zu den Menschen die den Unterschied merken und High-FPS Gamer sind, unlocked halt.
Mit nem 144, 200 Hz, ... whatever Bildschirm.

Das einzige was man daraus schließen kann ist: umso mehr Auflösung, desto mehr VRAM wird nach und nach nötig sein.

Wenn du die Karte 5 Jahre behalten willst und 4K zockst, werden 8GB VRAM bei AAA-Titeln am Tag X nicht mehr reichen.

Genaueres weiß die Glaskugel ;)

FullHD wäre mir z.B. zu wenig Auflösung.
 
Also ich nutze FHD und ne 3090 weil ich gerne min. 120FPS habe...
Beispiel: Cyberpunk komme ich mit RT + alles an nicht auf min. 120FPS daher ist alles über FHD für mich "sinnlos"...
Dann kommen wieder die 4K Freunde und sagen mir das es in FHD so Blockig aussieht...
Vielleicht ist mein Augenlicht schlecht und habe kein Auge für Details aber zu wenig FPS stören mich mehr als der fehlende Detailgrad.
Das dürfte dann aber unter persönliche Präferenzen fallen.
 
Das kommt immer auf die individuellen Bedürfnisse an. Ich hab z.B. eine Vega56 und bei 1080p@144hz war die Karte ausreichend, hatte bis dato kein Game, wo nicht locker 60+ fps lieferte. Dann kam aber ein WQHD Monitor mit 165hz und plötzlich geht so eine Vega56 ganz schön in die Knie und selbst 60fps sind teilweise nicht mehr erreichbar.

Da merkt man dann den Fortschritt bzw. dass mehr notwendig. Bei 1080p@144hz reicht meiner Meinung nach in vielen Fällen eine ältere GPU bzw. eine 1660Ti/Super. Dann kommt RT etc. was ich aber schon nicht mehr als normalen Bedarf sehen würde, sondern eher im Bereich der Enthusiasten sehe und da brauch man dann auch die neueste GPU Hardware selbst bei 1080p.
 
Crosser71 schrieb:
Warum liest man das also so häufig? Weil es den meisten nur um normale spielbarkeit geht?
Ja, die meisten Leute inkl. Tester haben noch 60Hz bzw. 60FPS im Kopf und dafür sind High End GPU's
in Full HD natürlich überdimensioniert aber bei 120/144Hz und somit 100FPS+ als Ziel auch sehr gut !

Nur ist es eben auch so, dass viele Spiele in Full HD auch mal mehr als 144FPS liefern was so gesehen
eigentlich Verschwendung ist und dann macht WQHD oder UHD mehr Sinn um die Leistung zu zeigen.
Klar könnte man den Leuten sagen, dass es mit DSR/VSR auf Full HD super aussieht aber zu kompliziert.
 
Amiga500 schrieb:
Wirklich immer ? Gibt auch Spiele die so scheisse optimiert und als "Alpha Versionen" auf den Markt kommensind und die Graka auf 100% bringen. und das obwohl die Grafik nix weltbewegendes ist.. ;)
Und was ändert das?
EGAL OB Alpha, Beta, Unoptimiert .... kannst Du sowieso nix drann ändern.

Der einzige Weg um mehr FPS zu bekommen ist eine stärkere Graka.
Ihr könnt euch alles dafür einsetzen was ihr wollt. Alpha, Beta, Optimierung, API .... mehr FPS gibts nur durch stärkere Graka, also wozu diese unsägliche Diskussion? Ist für mich ein Null-Argument.
Ich will FPS, ich schau auf die Auslastung der Graka. Ist die voll ausgelastet brauche ich ne stärkere Graka.
Langweilt sie sich brauch ich ne stärkere CPU oder VRAM/RAM sind voll.
Solange man kein Limiter setzt deckt das 99,9% aller Fälle ab.

Ich kann das Todschlag-Argument "schlecht optimiert" schon gar nicht mehr hören. Solange Du nicht im Büro vom Entwickler sitzt kannst Du Heulen wie ein Wolf, nächtelang. Es ändert NIX.
 
  • Gefällt mir
Reaktionen: Deathangel008 und Baal Netbeck
HisN schrieb:
Und was ändert das?
EGAL OB Alpha, Beta, Unoptimiert .... kannst Du sowieso nix drann ändern.

Der einzige Weg um mehr FPS zu bekommen ist eine stärkere Graka.
Ihr könnt euch alles dafür einsetzen was ihr wollt. Alpha, Beta, Optimierung, API .... mehr FPS gibts nur durch stärkere Graka, also wozu diese unsägliche Diskussion? Ist für mich ein Null-Argument.
Ich will FPS, ich schau auf die Auslastung der Graka. Ist die voll ausgelastet brauche ich ne stärkere Graka.
Langweilt sie sich brauch ich ne stärkere CPU oder VRAM/RAM sind voll.
Solange man kein Limiter setzt deckt das 99,9% aller Fälle ab.
Oder wenn spiele vernünftig optimiert werden wenn sie noch nicht fertig sind... Aktuelles Beispiel Das Addon zu Elite !!! Viele haben da teilweise Performance Probleme ..ich auch und das trotz meiner HW und die Grafik nix besonderes ist läuft die GPU schon mal auf 100% Auslastung ..es sit schlicht noch schlecht optimiert...Sollte ich mir deshalb jetzt eine neue Graka zulegen oder sollte der Entwickler endlich mal mittels updates optimieren ? ;-) Bei fertige Spiele gebe ich dir Recht
 
Und wenn der Entwickler nicht optimiert? Kostet Geld und Zeit. Du hast das Produkt schon bezahlt. Er verdient also nicht daran. Vertraust Du darauf? Wie lange zockst Du Elite jetzt? 3 Jahre? Hat sich die Planeten-Performance in irgend einer Form deutlich verbessert die letzten 3 Jahre? Mir wäre es nicht aufgefallen^^

Schlecht optimiert oder nicht, ich hab die letzten 3 Jahre bei Elite nur mehr FPS durch schnellere Hardware bekommen.

Und was hat Dir "schlecht Optimiert" jetzt gebracht in dieser Hinsicht? Warum krallt ihr euch an diese leere Worthülse?
 
  • Gefällt mir
Reaktionen: Deathangel008 und Baal Netbeck
Eigentlich kann man sich den Sinn dahinter doch ganz leicht herleiten:
(ganz grob geschildert ohne Anspruch auf vollständige Korrektheit)

Die GPU ist direkt dafür verantwortlich, die Farbe jedes einzelnen Pixels pro Bild auf dem Bildschirm festzulegen, da sie das Bild darstellt. Hast du mehr davon, hat die Grafikkarte mehr Arbeit. Sind besondere Effekte zu berechnet (RTX, Schatten, Anti Aliasing etc etc etc.) so hat hier die GPU noch mehr Arbeit pro Pixel.

Bis es zur Berechnung des Bildes kommt, ist die Spiellogik dafür verantwortlich (und damit die CPU) um zu entscheiden, was im nächsten Bild zu sehen ist. Dazu nimmt sie alle Spielereingaben entgegen, gleicht diese mit der aktuellen Spielsituation ab, und das Ergbnis ist dann darzustellen. Da wir heutzutage nicht mehr mit Softwarerendering arbeiten, kann man hier o.B.d.A. davon ausgehen, dass dies dann zum allergrößten Teil in Hardware passiert, also auf der GPU. Damit ist die Spiellogik sozusagen losgelöst von der Darstellungslogik.

Wenn du jetzt hingehst, die Auflösung reduzierst und alle grafischen Effekte auf low oder aus stellst, dann hast die Grafikkarte an dieser Stelle sehr wenig arbeit, und das nächste Bild wird nachgefragt und zwar von der Spiellogik und damit der CPU.

In diesem Szenario wäre also eine dicke GPU einfach nur noch schneller unterfordert. Du holst da also nahezu gar nichts raus mit einer noch stärkeren GPU, weil du im CPU-Limit hängst. Das dreht sich sofort um, wenn du sehr viele Pixel darstellen willst mit allen möglichen Schmakazien.

Natürlich spielt es eine Rolle, wie grottig das Spiel programmiert ist, und um welches Spiel es sich handelt. Aber wenn man einer GPU nichts abverlangt, kann sie auch nicht glänzen. Dann reicht eben auch die kleinere.

edit: Das hängt letztendlich auch damit zusammen, dass ein geringaufgelöstes Bild auf low nicht in der Lage ist, das, was eine starke GPU ausmacht, auszunutzen, nämlich breite Datenbusse, mehr VRAM und mehr Rechenwerke. Wenn der Input vom Aufwand her so gering ist, dass das alles quasi nicht genutzt wird, dann hast du keinen Geschwindigkeitsvorteil zu einer Grafikkarte, die diesbzgl. deutlich geringer dimensioniert ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
0ssi schrieb:
Nur ist es eben auch so, dass viele Spiele in Full HD auch mal mehr als 144FPS liefern was so gesehen
eigentlich Verschwendung ist und dann macht WQHD oder UHD mehr Sinn um die Leistung zu zeigen.
Klar könnte man den Leuten sagen, dass es mit DSR/VSR auf Full HD super aussieht aber zu kompliziert.
Das glaube ich eigentlich nicht. Hatte letztens noch nen interessanten Test von Igor gelesen in dem er nachgewiesen hat, dass high FPS durchaus wichtig ist. Kann ich bei Bedarf noch einmal raussuchen.
Danke allen anderen bisher für die Antworten. Ging ja wie immer hier sehr schnell.
 
Zuletzt bearbeitet:
Zurück
Oben