CPU und GPU kaum gefordert, trotzdem keine 144 hz?

Theoretisch könnte man - um die 50% Auslastung der CPU zu untermalen - mal im BIOS das Hyperthreading deaktivieren und beobachten, ob dann die Auslastung höher geht usw.

Aber als erstes brauchen wir Screenshots, Benchmarks, FPS, Einstellungen etc.
Vorher ist alles nur ein Ratespiel.
 
https://www.computerbase.de/2018-04...enchmarks-cpu/2/#diagramm-overwatch-1920-1080

Wenn man da so schaut und dann noch drann denkt das wir auf WQHD unterwegs sind ... CPU Limit ..

@SoDaTierchen Welche Einstellungen belasten die CPU ?
Komm genaues bitte ... denn die Hauptlast die die CPU berechnen muss sind Dreiecke ....
z.b. die Unterdreiecke bei Tesslation berechnet die Grafikkarte schon selber.
Schatten berechnet die Grafikkarte ( je nach Schattenmodell aber auch )
Spiegelungen
u.v.a. ... dafür haben die Karten ihre universalen Shader bekommen ...
 
Also nochmal zusammen fassen:

Hz und FPS definitiver Unterschied -> Lese ich mich noch mal ein

Userbenchmark

MSI Afterburner + RivaTuner -> am besten Screenshots

Einstellungen checken, welche die CPU belasten und welche die GPU


Hardware Upgrade ist natürlich immer eine Möglichkeit, bis jetzt schreckt mich nur ab, dass ich an diesem Punkt MB,RAM und CPU tauschen müsste.
 
axl foli schrieb:
Das Bild ist immer flüssiger (eben 144hz), egal wieviel Frames du hast.
Keiner hat behauptet er soll mit 30 fps spielen, natürlich ist das unspielbar.

Wenn man sich in 2 Sätzen selber wiederspricht ... muss sicher eine Aussage verkehrt sein.
 
@xxMuahdibxx : Und all die Shader kommen auf magische Zauberweise in die GPU rein? Und die Dreiecke werden IMMER ALLE auf die GPU geschoben, die kann sich ja selbst um das Culling kümmern? Und die GPU kompiliert grundsätzlich jeden Scheiß, das muss nicht übermittelt werden? Die GPU kann selbstständig erkennen, wie die übermittelten Daten zu interpretieren sind? Und die GPU lädt natürlich Texturen DIREKT von der Festplatte?

Falls das alles stimmt: Du hast vollkommen recht, Grafik-Einstellungen belasten niemals die CPU und Crysis 1 ist auf einem P2 mit 299fps spielbar. Realistisch betrachtet ist dem aber nicht so. Für ALLE Berechnungen außer AA und AF muss die CPU irgendeine Vorarbeit leisten. Das ist mal mehr mal weniger. Aber es ist immer mehr als gar keine. Und damit verfälscht man automatisch das Ergebnis.

@Dasbaum42: Hz ist in diesem Zusammenhang, wie oft der Monitor das Bild aktualisiert. fps sind die Bilder, die pro Sekunde berechnet werden. Passen Hz und fps nicht zusammen, dann stellt der Monitor manche Bilddaten mehrfach dar oder überspringt einige Bilddaten, je nachdem, ob Hz oder fps höher ist. Ideal sind natürlich exakt fps=Hz, aber das geht nur mit den adaptive-Sync-Technologien.
 
Ok, anders, damit auch die letzten es hier verstehen:

Stelle dein Monitor auf 60 hz ein, starte ein Spiel, setze den FPS Cap auf 30 fps, schaus dir an.
Mache das gleiche mit 144hz und 30 fps. Merkste was?

Und ich hätte von Leuten, die selber 144hz Monitore haben auch erwartet, dass die diesen Unterschied kennen, statt hier Unsinn zu verbreiten.
 

Anhänge

  • nein-doch-ooh.jpg
    nein-doch-ooh.jpg
    83,8 KB · Aufrufe: 387
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pray4mercy
Scrush schrieb:
so ein schwachsinn… sorry

natürlich braucht man auf 144hz genug fps um den vollen vorteil zu spüren. genug heist-> je näher an den 144 desto besser

du behauptest ja dass man selbst mit 30fps zocken könnte, was absolut nicht der fall ist. 30fps ist unspielbar, mit oder ohne gsync
30 FPS bei 144 Hz wirken flüssiger als 30 FPS mit 60 Hz! Und warum? Ganz einfach, da der Monitor das Bild alle 7 ms aktualisiert (144 Hz) und nicht nur alle 17 ms (60 Hz). Zudem sind 30 FPS nicht in allen Genres unbrauchbar. Gewiss möchte ich keine schnellen Shooter oder Rocket League mit 30 FPS spielen, aber bei Stratgiespielen KÖNNEN 30 FPS durchaus genügen...auch wenn ich 30 FPS nicht als Optimalfall ansehe.

greetz
hroessler
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: axl foli
yoshi0597 schrieb:
Bitte nicht die Werte vom Taskmanager ansehen. Die zeigen gerne mal falsche Werte an.
Der zeigt keine falschen Werte an, viele interpretieren die Werte nur falsch.
Wenn der Threadstarter folgendes schreibt
Dasbaum42 schrieb:
CPU tuckert bei 35% rum, einzelne Cores sind nicht höher als 50% ausgelastet
dann wird er wohl die Anzeige der logischen Prozessoren aktiviert haben und da sieht man dann auch die tatsächliche Auslastung pro Thread, nur leider nicht in Zahlen. Die Angabe "einzelne Cores sind nicht höher als 50% ausgelastet" lässt genau darauf schließen. Sonst hätte er nur die 35% Gesamtauslastung als Angabe gehabt.

@Threadstarter:
Hast du denn in anderen Spielen schon 144FPS erreicht?
Windows hat bei mir z.B. ohne Änderung meinen Monitor in Windows auf 120Hz eingestellt. Bei manchen Spielen blieb es dadurch bei maximal 120Hz bis ich das auf 144 geändert habe.
Gab es bei Overwatch auch Vollbild und Rahmenloses Fenster als Vollbild? Wenn ja solltest du mal das richtige Vollbild testen.
 
Renegade334 schrieb:
@Threadstarter:
Hast du denn in anderen Spielen schon 144FPS erreicht?
Windows hat bei mir z.B. ohne Änderung meinen Monitor in Windows auf 120Hz eingestellt. Bei manchen Spielen blieb es dadurch bei maximal 120Hz bis ich das auf 144 geändert habe.
Gab es bei Overwatch auch Vollbild und Rahmenloses Fenster als Vollbild? Wenn ja solltest du mal das richtige Vollbild testen.

Gleiches Problem hat Windows bei mir auch schon verursacht, glücklicherweise meldet sich mein Bildschirm mit einer OSD Nachricht, das die optimalen Einstellungen nicht bestehen.

Spiele wie Deep Rock, AC Odyssey (nur in mittleren/niedrigen Einstellungen, die CPU schreit da ziemlich) oder ähnliches erreichen 144. Auch die NVidia Gsync Pendel Demo zeigt die FPS ohne Probleme.
 
@hroessler
Danke! Ich habe mich vermutlich missverständlich ausgedrückt.
 
  • Gefällt mir
Reaktionen: hroessler
Im Fenstermodus gelten die Einstellungen von Windows, im Vollbild die des Spiels, war es nicht so?

Ein Monitor mit 144Hz ist immer Flüssiger als einer mit 60Hz egal ob bei 30, 60, 120 oder 180FPS
Der Unterschied lässt sich super am Mauszeiger auf dem Desktop oder beim Hoch/Runter scrollen auf Textwebseiten erkennen. - Wer das nicht sieht dem reicht auch nen Office PC zum zocken.

Ausserdem wird die Hz. Zahl am Monitor eingestellt, nicht am PC oder im OS..

Willst du dein CPU Limit sehen, stell die Grafikeinstellungen alle aufs Minimum. - Dann siehst du wie viel FPS deine CPU "schafft".
Dann stellst du die einzelnen Regler hoch und schaust was viel FPS kostet und was es dir an Bildqualität bringt.
So lernst du sogar noch etwas dabei..

Gsync/Freesync spielt seinen Vorteil gerade in Szenarien aus, wenn die FPS einbrechen weil die Hardware es nicht mehr schafft. - Dann wird der Bildaufbau des Monitors mit den ausgegebenen Bildern der Grafikkarte abgestimmt und es gibt eine flüssigere Darstellung.

Die Grafikkarte gibt die Bilder ja nie im selben Takt aus (Frametimes) und somit kann es sein das mitten im Bildaufbau des Monitors ein neues Bild von der Grafikkarte kommt. - Das ist es was zu den gefühlten Rucklern führt.

Vermindert wird das nur wenn die FPS wesentlich höher als die Hz des Monitors liegen.
Für shooter und schnelle Spiele wird in der Regel (vor allem Kompetitiv) auf die Sync Funktion verzichtet, da sie den Inputlag durch das zusätzliche Postprocessing künstlich erhöht. - Dort wird bewusst eine "schlechtere" Bildqualität gesetzt um einen spielerischen Vorteil zu haben.

Ich sehe keinen Grund für neue Hardware wenn du "nur" 120 FPS mit deinem PC schaffst. ;)
 
  • Gefällt mir
Reaktionen: Pacman0811
SoDaTierchen schrieb:
@xxMuahdibxx : Und all die Shader kommen auf magische Zauberweise in die GPU rein? Und die Dreiecke werden IMMER ALLE auf die GPU geschoben, die kann sich ja selbst um das Culling kümmern? Und die GPU kompiliert grundsätzlich jeden Scheiß, das muss nicht übermittelt werden? Die GPU kann selbstständig erkennen, wie die übermittelten Daten zu interpretieren sind? Und die GPU lädt natürlich Texturen DIREKT von der Festplatte?
@ Culling ja nein vielleicht
https://www.pcgameshardware.de/Wolf...PU-Culling-beeinflussen-die-Leistung-1242626/
Der Z-Puffer ist auf der Grafikkarte.
https://viscircle.de/einsteigerguide-ein-kleiner-ueberblick-ueber-das-culling/
In modernen Grafikkarten wird der Z-Puffer verwendet, um das Problem der versteckten Oberfläche zu lösen. Hier eine einfache Erklärung: Für jedes Pixel auf dem Bildschirm wird der sogenannte Z- oder Tiefenwert gespeichert, der die Entfernung der Kamera zur nächsten Geometrie an dieser Pixelposition darstellt. Alle renderbaren Objekte müssen aus Dreiecken bestehen. Alle von den Dreiecken abgedeckten Pixel führen einen Z-Vergleich durch (Z Pufferwert vs. Z-Wert des Dreiecks) und je nach Ergebnis wird das Dreieckspixel verworfen oder nicht. Dadurch wird die Entfernung von verdeckten Oberflächen auch bei sich überschneidenden Objekten elegant gelöst. Das bereits erwähnte Problem der Okkluderfusion wird ohne weiteren Aufwand gelöst. Der Z-Test ist ziemlich spät in der Rendering-Pipeline, was bedeutet, dass viele Engine-SetUp-Kosten (z.B. Skinning, Shader-Konstanten) bereits erledigt sind.

Damals gabs auch Grafikkarten die das nicht als letzte Instance abgearbeitet haben und daher einen Leistungssprung vorweisen konnten. Aber sie hatten das Problem das nicht immer jedes Dreieck korrekt erkannt wurde. Texturflackern war dann eines der Probleme.

@Texturen Festplatte und Grafikkarte können DMA.
PCIe kann DMA ... ergo müssen nur Texturen in den RAM geladen werden ... und dort halt nachgeladen ... der Befehl für das Textur nachladen wird aber sicher 0.001 % CPU Leistung kosten.
 
Auf die Gefahr hin mich zu wiederholen, aber auf Epic Einstellungen wird er keine 144fps schaffen mit dem PC. Vor allem wegen der CPU. Ich hatte vorher einen i7-4790k, der war schon bei 1080p am Limit bei Overwatch in hohen Grafikeinstellungen. Ich habe meist auf High gespielt und enige Optionen auf Low gestellt. Da sank die Framerate selten unter 140.
 
So da ich endlich zuHause bin gibt es hier schon einmal den Userbenchmark.

UserBenchmarks: Game 72%, Desk 67%, Work 49%
CPU: Intel Core i7-3770K - 74.9%
GPU: Nvidia GTX 1070 - 78.3%
SSD: Samsung 850 Evo 250GB - 635.9%
SSD: Samsung 840 250GB - 55.3%
HDD: Seagate ST1000LM048-2E7172 1TB - 44.2%
RAM: Corsair Vengeance DDR3 1600 C10 2x8GB - 57.7%
MBD: Asus P8Z77-V PRO

https://www.userbenchmark.com/UserRun/19283720

Dass die Festplatte unterdurchschnittlich ist interessiert mich reichlich wenig, da dort nur selten genutzte Daten lagern. Das etwas schwache abschneiden der GPU ist mir dann doch eher ins Auge gefallen.

Screenshots von MSI Afterburner gibt es nach, so bald ich mal wieder Zeit habe OW anzuschmeißen.
 
Dasbaum42 schrieb:
Einstellungen sind auf Epic, Scalierung auf 100%.

In WQHD viel zu viel für eine GTX 1070, da kann auch mein neuer Ryzen 7 3700X nichts mehr retten.

Vorhin getestet (mit DSR auf dem FHD-Monitor). Maximum um die 105 fps, an einer Stelle des Replays ging es sogar bis auf 60 fps runter (hinter einem Orisa-Schild mit D.Va-Missiles den Superbooster zerballert).

In FHD/Episch waren es schon 90 fps, FHD/Hoch 120 fps.

WQHD war nur mit niedrigen Details brauchbar: 120 fps min. , FHD/Niedrig dagegen: 210 fps Minimum !

Der übertaktete 3770K sollte kein Problem darstellen, mein alter 4770 konnte die 144 fps auch meistens halten.
 
  • Gefällt mir
Reaktionen: Laphonso
Dasbaum42 schrieb:
schwache abschneiden der GPU ist mir dann doch eher ins Auge gefallen.
Deine FPS sind auf 144 beschränkt wie es scheind (bei mir auch). Müsste man mal beheben und dann sollte die GPU auch nicht mehr unterdurchschnittlich performen.

Stell bei OW einfach mal alles auf Low und die 144 FPS sollten erreicht werden. Wenn die Karte das locker schafft kann man mal gucken was man noch verschöneren kann.
 
144 fps konstant, ohne "Einbrüche", auf 1440p und bei default Epic settings mit 122% Renderscaling für Overwatch packt m.W. alleine nur die 2080Ti. Selbst die RTX 2080 hat dips auf ~ 130 fps runter im Chaos.,
Die 1070 hat dort nach "oben" hin nicht mehr die Luft, zumindest nicht die 144 fps bei OW Epic Settings.
Einfach Fog, Schatten und so etwas 1 Nuance runterstellen.
 
Also, laut MSI Afterburner scheint tatsächlich die GPU der limitierende Faktor zu sein!
Auf Epic Einstellungen hänge ich definitiv auf 100% (bzw. durch OC zeigt er anscheinend auch bis 105%) an. Mit Ultra lässt sich das Problem komplett umgehen, 144 fps sind dann stabil.

Vielen dank noch mal für euren Input, MSI Afterburner wird wohl mein neuer Begleiter. Jetzt heißt es abfinden oder aufrüsten.

Mfg
 
Zurück
Oben