Dicke GPUs bei HD-Auflösung unnötig oder nicht?

Man sollte auch nicht vergessen, dass die Spiele auch ohne Auflösungserhöhung immer fordernder werden.
Meine 1070 war bei Erscheinen für nur Full HD etwas überdimensioniert, mittlerweile ist das nicht mehr so.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Adolf Kowalski
Ich glaub, Hauptpunkt ist das Geld, bzw. wie VIEL Geld ist jemand bereit auszugeben.
Meine 1080 langt mir immernoch überall hin. Ich könnte mir auch ne 3090 leisten aber das wärs mir einfach nicht wert. Das ist einfach sehr individuell.
 

Bruzla


Das denke ich auch selbst mir langt eine RTX 3080 mit 3840x1600 bzw 38 Zoll.
 

Anhänge

  • 194009408_123856739816509_4539982846661430928_n.jpg
    194009408_123856739816509_4539982846661430928_n.jpg
    212,2 KB · Aufrufe: 173
Das ist ja nicht die Frage, ob man bereit ist das Geld dafür auszugeben. Es geht ja nur um den reinen Mehrwert in FPS.
Ergänzung ()

Grimba schrieb:
Eigentlich kann man sich den Sinn dahinter doch ganz leicht herleiten:
(ganz grob geschildert ohne Anspruch auf vollständige Korrektheit)

Die GPU ist direkt dafür verantwortlich, die Farbe jedes einzelnen Pixels pro Bild auf dem Bildschirm festzulegen, da sie das Bild darstellt. Hast du mehr davon, hat die Grafikkarte mehr Arbeit. Sind besondere Effekte zu berechnet (RTX, Schatten, Anti Aliasing etc etc etc.) so hat hier die GPU noch mehr Arbeit pro Pixel.

Bis es zur Berechnung des Bildes kommt, ist die Spiellogik dafür verantwortlich (und damit die CPU) um zu entscheiden, was im nächsten Bild zu sehen ist. Dazu nimmt sie alle Spielereingaben entgegen, gleicht diese mit der aktuellen Spielsituation ab, und das Ergbnis ist dann darzustellen. Da wir heutzutage nicht mehr mit Softwarerendering arbeiten, kann man hier o.B.d.A. davon ausgehen, dass dies dann zum allergrößten Teil in Hardware passiert, also auf der GPU. Damit ist die Spiellogik sozusagen losgelöst von der Darstellungslogik.

Wenn du jetzt hingehst, die Auflösung reduzierst und alle grafischen Effekte auf low oder aus stellst, dann hast die Grafikkarte an dieser Stelle sehr wenig arbeit, und das nächste Bild wird nachgefragt und zwar von der Spiellogik und damit der CPU.

In diesem Szenario wäre also eine dicke GPU einfach nur noch schneller unterfordert. Du holst da also nahezu gar nichts raus mit einer noch stärkeren GPU, weil du im CPU-Limit hängst. Das dreht sich sofort um, wenn du sehr viele Pixel darstellen willst mit allen möglichen Schmakazien.

Natürlich spielt es eine Rolle, wie grottig das Spiel programmiert ist, und um welches Spiel es sich handelt. Aber wenn man einer GPU nichts abverlangt, kann sie auch nicht glänzen. Dann reicht eben auch die kleinere.

edit: Das hängt letztendlich auch damit zusammen, dass ein geringaufgelöstes Bild auf low nicht in der Lage ist, das, was eine starke GPU ausmacht, auszunutzen, nämlich breite Datenbusse, mehr VRAM und mehr Rechenwerke. Wenn der Input vom Aufwand her so gering ist, dass das alles quasi nicht genutzt wird, dann hast du keinen Geschwindigkeitsvorteil zu einer Grafikkarte, die diesbzgl. deutlich geringer dimensioniert ist.
Aber das gilt nur dann, wenn die CPU der limitierende Faktor ist.
 
Zuletzt bearbeitet:
Also um mal das viele Fachsimpeln einzuhegen:
Eine dicke GPU ist immer dann sinnvoll wenn das restliche System dazu "passt", dass kann natürlich auch wieder eine Definitionssache sein aber im groben stimmt es schon so (3090 mit nem 4790k wäre knapp unter dem was minimal sinnvoll wäre mit fliesenden Grenzen z.B.).

Die Sache ist nunmal die: Man kauft sich die GPU NICHT für HEUTE sondern für die Zukunft, ergo dicke GPU, längere Laufzeit bis man nicht mehr auf FHD auf Ultra / high in der gewünschten (festgelegten!) FPS laufen kann und/oder die Frametimes das persönliche Empfinden stören.

So konnten z.B. die Käufer der 1080 TI lange Zeit voll ausgemaxt gut zocken. Das war z.B. ein sinnvoller Kauf einer dicken GPU.

Natürlich muss auch der Preis stimmen, z.B. heute gibt es in diesem Rahmen vermutlich keine sinnvolle Karte für so eine Preis/Leistung. Wenn das Geld egal ist würde man aber mit einer 3090 oder dem AMD-Pendant 24-36 Monate mit High-FPS auf Ultra/very high auf fullhd/1440p solide fahren können. (Gesetzt den Fall die Softwareentwicklung scheisst nicht völlig auf Optimierungen).
 
Ich finde eine dicke GPU muss zu ihrer Aufgabe passen, und nicht zum Rest des Systems.
Wenn ein FX-8 400 FPS in meiner Software stemmt, dann brauche ich keinen 5950X zur 3090 nur weil irgendwer der Meinung ist die beiden Namen passen zusammen.
 
  • Gefällt mir
Reaktionen: Demon_666, Deathangel008 und Baal Netbeck
Crosser71 schrieb:
Aber das gilt nur dann, wenn die CPU der limitierende Faktor ist.
Das ist sie dann quasi automatisch, denn du kannst in 99% der Fälle davon ausgehen, dass du in niedrigster Auflösung ohne jegliches Eye-Candy eben genau im CPU-Limit bist.
 
HisN schrieb:
Ich finde eine dicke GPU muss zu ihrer Aufgabe passen, und nicht zum Rest des Systems.
Wenn ein FX-8 400 FPS in meiner Software stemmt, dann brauche ich keinen 5950X zur 3090 nur
👍
Grimba schrieb:
Das ist sie dann quasi automatisch, denn du kannst in 99% der Fälle davon ausgehen, dass du in niedrigster Auflösung ohne jegliches Eye-Candy eben genau im CPU-Limit bist.
Vielleicht hab ich einfach zu wenig Ahnung aber dann wäre ja zu nem 5950x meine alte GTX970 ausreichend z.B für BF6. Das wird doch sicherlich nicht so sein und würde eine separate GPU obsolet machen
 
@Crosser71:
je nach anwendung kann das tatsächlich der fall sein.

wie schon geschrieben wurde: es gibt kein pauschales "CPU x passt zu graka y", es gibt nur "hardware xy passt zu anspruch z".

geht es dir eigentlich um HD (1280x720) oder FHD (1920x1080)?
 
  • Gefällt mir
Reaktionen: HisN und Baal Netbeck
Überleg es dir so:
In einem System, dass mit niedrigster Auflösung ohne Eye-Candy fährt, hat de facto die GPU am wenigsten zu tun. Da aber irgendwer noch dafür sorgen muss, dass es was zum Darstellen gibt, hat also die CPU weiterhin Arbeit. Wieviel Gewinn erziehlst du also deiner Meinung nach, wenn du das Teil im System austauschst, dass im Szenario am wenigsten Arbeit hat?

Und ja richtig. Auch zu deiner GTX970 macht in diesem Szenario eine 3090 den geringsten Unterschied.
 
Crosser71 schrieb:
aber dann wäre ja zu nem 5950x meine alte GTX970 ausreichend. Das wird doch sicherlich nicht so sein.
Warum nicht?
Wenn du als Spiel Starcraft 2 spielst, würde dir eine bessere Grafikkarte nichts bingen und der 5950X limitiert.
Und es gibt ja noch dutzende andere Spiele, bei denen man sich mehr FPS im CPU Limit wünscht.
Und wo das CPU Limit schon mit einer schlechten Grafikkarte erreicht wird.

Dass es sinnlos ist, 16 Kerne für ein Spiel zu nutzen, dass nur 2-4 Kerne nutzen kann, ist was anderes.
Aber eventuell brauchst du die 16 Kerne für was anderes...oder willst sie einfach haben. ;)

Trotzdem kann die GTX970 völlig ausreichend für deine Zwecke sein.
 
  • Gefällt mir
Reaktionen: Grimba
Deathangel008 schrieb:
@Crosser71:
je nach anwendung kann das tatsächlich der fall sein.

wie schon geschrieben wurde: es gibt kein pauschales "CPU x passt zu graka y", es gibt nur "hardware xy passt zu anspruch z".

geht es dir eigentlich um HD (1280x720) oder FHD (1920x1080)?
FHD.
Ich kann aber jetzt kein Beispiel liefern, weil es BF6 noch nicht gibt. Ich bin reiner BF-Spieler und kann daher noch nicht schreiben: Suche bestes System für max. FPS auf 280 Hz FHD😂
Ergänzung ()

Baal Netbeck schrieb:
Warum nicht?
Wenn du als Spiel Starcraft 2 spielst, würde dir eine bessere Grafikkarte nichts bingen und der 5950X limitiert.
Und es gibt ja noch dutzende andere Spiele, bei denen man sich mehr FPS im CPU Limit wünscht.
Und wo das CPU Limit schon mit einer schlechten Grafikkarte erreicht wird.

Dass es sinnlos ist, 16 Kerne für ein Spiel zu nutzen, dass nur 2-4 Kerne nutzen kann, ist was anderes.
Aber eventuell brauchst du die 16 Kerne für was anderes...oder willst sie einfach haben. ;)

Trotzdem kann die GTX970 völlig ausreichend für deine Zwecke sein.
Okay, aber wie findet man dann die optimale GPU wenn man eh im CPU-Limit ist und das nicht behebbar ist weil es nichts besseres gibt?
 
Crosser71 schrieb:
Okay, aber wie findet man dann die optimale GPU wenn man eh im CPU-Limit ist und das nicht behebbar ist weil es nichts besseres gibt?
Einfach.
Wenn du schon im CPU Limit bist, dann hast du deine optimale GPU schon, denn sie reicht aus, um dich ins CPU limit zu bringen.
 
  • Gefällt mir
Reaktionen: Grimba und HisN
Das ist doch das, was dir hier versucht wird zu erklären, und HisN auch schon x mal anderswo erklärt hat:

Wenn du alles grafisch runterfährst erhälst du die FPS, die dein Rechner grundsätzlich schafft, wenn er hauptsächlich mit der reinen Spiellogik beschäftigt ist. Das ändert sich auch nicht. Ab da wird es auch nicht mehr durch eine GPU, denn es wird ja nicht durch eine stärkere Grafikkarte weniger Spiellogik. Die GPU kann hier im Prinzip nur noch alles zusätzliche übernehmen. Vorher kommt immer die Spiellogik und daher die CPU. Wenn die schon limitiert, ist die Wahl der GPU relativ egal.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Crosser71 schrieb:
👍

Vielleicht hab ich einfach zu wenig Ahnung aber dann wäre ja zu nem 5950x meine alte GTX970 ausreichend z.B für BF6. Das wird doch sicherlich nicht so sein und würde eine separate GPU obsolet machen
Das werden wir sehen wenn BF6 draußen ist. Meinst Du nicht?
Schließlich bist am Ende Du der einzige der sagen kann was "ausreicht" und was nicht.

Aber schön dass Du in Post 32 endlich aus der akademischen Umsonst-Diskussion ein konkretes Probem machst.
Das wäre im 1. Post schon angebracht gewesen und hätte und eventuell 30 Post gespart.

Beispiel BF5
Mein Threadripper jedenfalls ist keine gute Wahl für das Game und trotz Ultra langweilt sich meine Graka wie verrückt.
Aber ich möchte nicht so zocken^^

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grimba und Baal Netbeck
Grimba schrieb:
Das ist doch das, was dir hier versucht wird zu erklären, und HisN auch schon x mal anderswo erklärt hat:

Wenn du alles grafisch runterfährst erhälst du die FPS, die dein Rechner grundsätzlich schafft, wenn er hauptsächlich mit der reinen Spiellogik beschäftigt ist. Das ändert sich auch nicht. Ab da wird es auch nicht mehr durch eine GPU, denn es wird ja nicht durch eine stärkere Grafikkarte weniger Spiellogik. Die GPU kann hier im Prinzip nur noch alles zusätzliche übernehmen. Vorher kommt immer die Spiellogik und daher die CPU. Wenn die schon limitiert, ist die Wahl der GPU relativ egal.
Ja, sowas in der Art hatte ich gerade im Stickythread von HisN gelesen. Danke euch. Aber wahrscheinlich ist man ja bei BF nicht im Dauer-CPU-Limit und da würde dann die GPU doch helfen die FPS maximal hoch zu halten oder habe ich da einen Denkfehler?
Ergänzung ()

HisN schrieb:
Aber schön dass Du in Post 32 endlich aus der akademischen Umsonst-Diskussion ein konkretes Probem machst.
Das wäre im 1. Post schon angebracht gewesen und hätte und eventuell 30 Post gespart.
Hab ich mit Absicht nicht gemacht EBEN weil es noch nicht draußen ist. 😉
Ich weiß doch wie es hier läuft. Ich hab auf jeden Fall wieder was gelernt vom grundsätzlichen. Dafür habe ich zu wenig Ahnung und dsfür bin ich immer hier.
 
  • Gefällt mir
Reaktionen: HisN
Was man machen kann ist auf den Hersteller gucken.
Viele Spiele bevorzugen AMDs oder Nvidias Herangehensweise an die APIs und Drawcalls.

So kann man, mit einem Wechsel des Lagers, das CPU Limit verschieben.
Grob gesagt....und mit ausdrücklichem Hinweis auf Ausnahmen!:
Nvidia hat einen Hybrid Scheduler, der es ihnen ermöglicht, auch bei OpenGL und DX11(und drunter) die Drawcalls auf mehrere CPU Threads zu verteilen.

AMD hat sich auf einen Hardware Scheduler konzentriert und das nimmt bei DX12 und Vulkan der CPU Arbeit ab.....kann aber bei DX11 nicht rumtrixen.

Hast du also z.B. ein CPU limitiertes DX11 Spiel, dann musst du unterscheiden wie stark deine CPU ausgelastet ist.
Ist die CPU nahezu voll ausgelastet, dann spart AMDs Ansatz der CPU Arbeit und es läuft im CPU Limit eher besser.

Hast du viele freie CPU Ressourcen(was mit heutigen 8 Kernen und mehr meist der Fall ist), dann ist Nvidias Ansatz besser, weil er den Main-Thread des Spiels von der Last der Drawcalls größtenteils befreien kann.
Mit einer AMD GPU, wird ein Thread das ganze Spiel limitieren.

DX12 und Vulkan.....hier kommt es stark auf die Fähigkeiten der Entwickler an.
Sie müssen hier viel selbst regeln und das geht auch öfter mal nach hinten los.
Wenn es gut klappt, werden auch CPUs mit vielen Kernen gut ausgelastet und man hat selten ein CPU Limit.
Wenn man doch im CPU Limit ist, kommt AMD damit in der Regel besser klar.
 
  • Gefällt mir
Reaktionen: Crosser71 und Grimba
Du hast immer dann einen Denkfehler, wenn du in BF hingehst, und der Grafikkarte sämtliche Arbeit wegnimmst. Dann bist du einfach im CPU limit und die Grafikkarte hilft dir nicht mehr.
Mehr FPS als das, was dein Rechner mit geringsten Grafikeinstellungen schafft, werden es nicht.

edit: Der Rest sind Ausnahmefälle, wie von Baal beschrieben.
 
Okay, dann also die Grafikanforderugen erhöhen und dennoch keinen FPS-Verlust. Es kommt langsam an bei mir🙈
 
  • Gefällt mir
Reaktionen: HisN
Grimba schrieb:
Mehr FPS als das, was dein Rechner mit geringsten Grafikeinstellungen schafft, werden es nicht.
Stimmt.

Und selbst wenn man im CPU Limit ist, werden es auch nur noch weniger, wenn man die Grafikeinstellungen erhöht.
Viele Optionen sorgen für mehr Objekte, komplexere Objekte, mehr Effekte, mehr Schatten, mehr NPCs usw.
Und all das fordert mehr Arbeit von der CPU.
 
  • Gefällt mir
Reaktionen: Grimba
Zurück
Oben