Von CPU- und GPU-Performanceproblemen, deren Analyse und Lösungen.

NighteeeeeY schrieb:
Ich hoffe halt wirklich dass dieser verflixte 5800X3D bald erscheint, damit ich endlich erlöst bin.
Erlöst von was?
Du bist doch entweder im GPU Limit oder du hast hohe FPS.
An welcher Stelle brauchst du den 5800X3D?
 
Baal Netbeck schrieb:
Erlöst von der Warterei und dem Abwägen ob sich alles auswechseln/erneuern lohnt ohne gleich auch ne neue CPU und Wakü einzubauen. Und gerüstet zu sein mit der schnellsten AM4 CPU für DLSS in der Zukunft.
Ergänzung ()

Baal Netbeck schrieb:
Warum sollte der CPU Takt auf ein CPU LImit hindeuten?
Das ist in der Tat eine gute Frage, wenn du es so formulierst. Ich bin bisher immer davon ausgegangen, dass der CPU Takt dann hochgehen müsste, wenn ich im CPU Limit wäre....ich kanns mir gerade selbst nicht mehr richtig zusammenreimen. Du meinst also die CPU kann einfach nicht höher takten? Aber wäre das nicht gleichzusetzen mit nem CPU Limit? Ahhhhh
Ergänzung ()

Baal Netbeck schrieb:
An welcher Stelle brauchst du den 5800X3D?

Naja wenn ich zb von 1440p auf 1080p runter gehe, dann taktet meine CPU immer nur noch mit 4 Ghz. Würde da jetzt nicht ein 5900X/5800X3D die zb erstmal schon mal 15 (oder 25?)% höhere IPC haben und dazu auch noch auf 4,5 oder 4,8 Ghz hochtakten können Abhilfe schaffen?

Das würde doch bedeuten, dass sobald DLSS im Spiel ist, ich im CPU Limit sein werde oder nicht?
 
Zuletzt bearbeitet:
Backfisch schrieb:
Dazu würde ich gerne ein Beispiel sehen.
Eigene Erfahrung.
Ich habe einfach sehr oft in meinem Leben die Auslastungen beobachtet und manchmal sieht man, wie Windows die Last auf einzelnen Threads festhält und dann auch wieder nicht.

Ich hatte schon Cinebench single Thread Durchläufe, wo sich Windows entschieden hat, den einen Thread, gleichmäßig über alle 16 CPU Threads zu verteilen und jeder hatte 7% Auslastung. :freak:
Oder zwischendurch sind 2 CPU Threads zu ca 50% ausgelastet.

Und in Spielen kommt man oft ins CPU Limit und kein CPU Thread ist voll ausgelastet.

Daher ist es aus meiner Sicht sinnlos, auf die Einzelauslastungen zu gucken.
Wenn kein Thread auf 100% ist, dann sagt das nix aus.
Woher soll ich wissen, ob das Spiel die Last auf viele Threads verteilt hat, oder ob Windows den limitierenden Thread zwischen mehreren CPU-Threads hin und herschiebt.

Was hilfreich sein kann, ist die Gesamtauslastung. Wenn diese, bei einer CPU ohne HT/SMT, sehr hoch geht(90% z.B.), dann kann man stark vermuten, dass eine CPU mit mehr Kernen/Threads einen besseren Job machen würde.
Ähnliches gilt für CPUs mit HT/SMT, wo man ab ca 50% Gesamtauslastung, von mehr echten Kernen profitieren kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Demon_666
NighteeeeeY schrieb:
Das ist in der Tat eine gute Frage, wenn du es so formulierst. Ich bin bisher immer davon ausgegangen, dass der CPU Takt dann hochgehen müsste, wenn ich im CPU Limit wäre....ich kanns mir gerade selbst nicht mehr richtig zusammenreimen. Du meinst also die CPU kann einfach nicht höher takten? Aber wäre das nicht gleichzusetzen mit nem CPU Limit? Ahhhhh
Etwas vereinfacht erklärt:
CPU-Limit bdeutet, dass die aus Sicht der game-engine die maximale Auslastung der CPU bzw. der Threads/Kerne erreicht ist, d.h. mehr Daten der engine kann die CPU nicht verarbeiten, entweder weil die engine nicht gut genug programmiert ist oder die CPU bei der Abarbeitung zu langsam ist.

Trotzdem liegt normalerweise der maximale Takt an der CPU. Ausnahme: Alle Kerne/Threads werden voll ausgelastet, dann greift irgendwann das Power- und oder Temperaturlimit der CPU.
 
NighteeeeeY schrieb:
Ich hab halt noch nie einen GPU Kühler gewechselt bzw. abgebaut, deshalb grauts mir gerade noch davor. Weil...lass ich die alten WLP Pads für Vram etc dann einfach drauf? Muss ich die wechseln? Sollte ich die auch wechseln?
Pads kannst du so lassen, die Karte hat da eine schöne Midplate, dass du da nichts rumfuchteln musst.
 
Stormfirebird schrieb:

Eine was? Ich hab mir mehrere Videos angeschaut zu Kühlerwechseln bzw Installation von GPU Wasserkühlern aber von einer Midplate war da nie die Rede?

Demon_666 schrieb:
Etwas vereinfacht erklärt:

Ich kann deine Worte lesen aber ich verstehs trotzdem nicht. ¯\(ツ)

Ich nehms einfach so hin, was du sagst. Ich werd mir so oder so eine neue CPU kaufen, einfach weil ich Bock drauf habe. Ich hatte nur gehofft, dass die auch was bewirkt (auch schon ohne DLSS - wieso hat dazu immer noch niemand was gesagt?), aber wenn ihr der Meinung seid ich bin gar nicht im CPU Limit na gut....ne neue GPU gibts leider nicht zu den Mondpreisen.

Ich mach gleich mal n Wakü Thread auf, hab da auch noch ein paar Fragen, falls sich jemand berufen dazu fühlt.
 
NighteeeeeY schrieb:
Du meinst also die CPU kann einfach nicht höher takten? Aber wäre das nicht gleichzusetzen mit nem CPU Limit? Ahhhhh
Ja, ich denke die CPU kann(will) nicht höher takten.

Allerdings takten die aktuellen AMD CPUs teils alle Kerne unterschiedlich.
Ich weiß nicht, was da als "allgemeiner CPU Takt" ausgegeben wird, aber um so mehr von der CPU genutzt wird, um so niedriger wird der Takt ausfallen.

Den maximalen Boost bekommst du praktisch nur im Idle, wenn du die Maus bewegst. ;)

Um so mehr Leistung die CPU zieht, um so niedriger wird der Takt fallen.
Aber wenn die Auslastung sehr ungleich verteilt ist, kann es sein, dass stärker belastete Kerne mehr Takt zugesprochen bekommen und andere dafür um so weniger.

Und dann ist der Takt noch von der Spannund und den internen Teperaturen abhängig...denk nicht zu viel darüber nach. Ich würde sagen, deine CPU läuft wie vorgesehen!
NighteeeeeY schrieb:
Naja wenn ich zb von 1440p auf 1080p runter gehe, dann taktet meine CPU immer nur noch mit 4 Ghz.
Siehe darüber.
Ich bin mir nicht sicher, welcher Takt da angezeigt wird, und es ist logisch, dass er sinkt wenn die Auslastung steigt.
NighteeeeeY schrieb:
Das würde doch bedeuten, dass sobald DLSS im Spiel ist, ich im CPU Limit sein werde oder nicht?
Zumindest wenn du DLSS benutzt, werden vermutlich deine FPS steigen und damit auch die CPU Auslastung.
Ob du dann zwangsläufig ins CPU Limit kommst kann ich nicht sagen.
Aber was willst du denn an FPS erreichen?

Du kannst ja jetzt schon probieren die Auflösung zu senken und damit simulieren, wie deine FPS wohl mit DLSS sein könnten.
Reichen dir die FPS, dann brauchst du auch keine neue CPU.
Wenn doch, dann wäre der 5800X3D ein gutes upgrade.

Du soltest aber auch bedenken, dass die Ramgeschwindigkeit einen nicht zu vernachlässigenden Teil der CPU Leistung ausmacht.
Läuft dein Ram denn zumindest mit XMP?
 
  • Gefällt mir
Reaktionen: nighteeeeey
https://www.techpowerup.com/review/msi-geforce-rtx-2080-ti-gaming-x-trio/4.html
Das Teil https://www.techpowerup.com/review/msi-geforce-rtx-2080-ti-gaming-x-trio/images/cooler4.jpg
Ein paar andere Pads gibts zwar schon, aber die bleiben in der Regel kleben und sonst hast du ja jetzt eine Referenz wo die hingehören. :daumen:

NighteeeeeY schrieb:
auch schon ohne DLSS - wieso hat dazu immer noch niemand was gesagt?
Weil es absolute Spekulation ist und davon abhängt wie du dein Spiel einstellst. Wenn du das letztendlich nur verwendest um mehr Qualität bei gleichen FPS zu haben dann kann das schon etwas stärker die CPU beanspruchen. Im großen und ganzen kannst du dir auch jetzt schon anschauen was die CPU maximal Leistet, wenn du einfach die Auflösung runterschraubst und die Settings sonst auf anschlag drehst. Wenn die Graka nicht voll Ausgelastet ist, dann siehst du was die CPU maximal leistet und daran wird sich mit DLSS nichts ändern.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und nighteeeeey
Baal Netbeck schrieb:
Du soltest aber auch bedenken, dass die Ramgeschwindigkeit einen nicht zu vernachlässigenden Teil der CPU Leistung ausmacht.
Läuft dein Ram denn zumindest mit XMP?

Ja RAM ist so ne Sache.

Ich hab die Crucial Ballistix Sport 3200 Mhz mit Micron-E.

Habe ich damals extra gekauft weil ich dachte ich würde den übertakten. Aber als ich mich dann damit beschäftigt habe.....Ram übertakten ist ja auch irgendwie ne sehr eigene Kategorie.

Ja XMP ist an und er läuft mit 3200 Mhz. Den Takt im Bios auf 3600 Mhz ändern gilt wohl nicht als richtiges übertakten :D denn danach musste ich n Cmos Reset machen weil nix mehr ging.

Gibt es eine super simple Lösung wie man den Ram übertaktet? Kurzen Crashkurs in How To? Weil der Ram sollte ja eigentlich definitiv mit 3600 Mhz laufen, deshalb haben den ja alle gekauft.
Ergänzung ()

Stormfirebird schrieb:
Im großen und ganzen kannst du dir auch jetzt schon anschauen was die CPU maximal Leistet, wenn du einfach die Auflösung runterschraubst

Das hab ich ja oben gemacht. Bei 1080p waren das ~100 Fps. Schon mal schöner als 70 FPS.
NighteeeeeY schrieb:

Ich weiß nicht, wie sich das mit nem 144 Hz Monitor anfühlen wird und ob das wirklich so ein Tag und Nacht Unterschied sein wird wie alle immer beschwören. Ich hab noch nie vor einem 144 Hz Panel gesessen und kann absolut nicht einschätzen, ob sich damit 100 FPS dramatisch höher anfühlen als auf 60 Hz oder ob man dafür dann auch 144 FPS braucht.

Davon mach ich habhängig ob ich lieber bessere Qualität mit gleichen FPS oder lieber mehr FPS möchte.

Aber wenn ich jetzt in 1080p bei 45% GPU Auslastung bei 100 FPS hänge bedeutet das also, dass ich mit DLSS in 1080p "1440p" Qualität auch nur 100 FPS hätte und damit im CPU Limit wäre.

Dann würde ein 5800X3D doch Sinn ergeben oder nicht?

Ich versuche hier nur eine Kaufrechtfertigung zu erhaschen, kaufen werde ich ihn, zumindest wenn er mind. 10% schneller als ein 5900X ist, sowieso. ;)
 
Zuletzt bearbeitet:
NighteeeeeY schrieb:
Gibt es eine super simple Lösung wie man den Ram übertaktet? Kurzen Crashkurs in How To?
Nein.

Auch wenn es natürlich kurze Anleitungen zum RamOC gibt, halte ich davon nichts!

Nur weil es bootet und nicht direkt abstürzt...und von mir aus auch Memtest86 durchsteht, ist Ram noch lange nicht 100% stabil.
Und sobald man hier und da eine kleine Instabilität bekommt, gibt es Abstürze und potentiellen Datenverlust.
Und um so mehr Daten korrumpiert sind, um so mehr Abstürze gibt es und ganz zu schweigen davon, dass die Daten wichtig sein könnten.

Das umfangreiche Testen auf Stabilität ist das A und O und es ist leider bei RamOC sehr kompliziert und kostet extrem viel Zeit.

Verschiedene Memtest Programme, Test bei wechselnder Last, Tests bei gleichzeitiger CPU Last, bei höheren Temperaturen, usw.

Und nur den Takt nach oben zu setzen ist auch nicht unbedingt schneller.
Wenn sich dafür die Timings deutlich verschlechtern, kann es sogar zu weniger Leistung führen, oder zumindest nicht zu der erwarteten Leistungssteigerung.

Und Takt und 30+ Timings zu optimieren und wirklich stabil zu bekommen ist einfach sehr zeitaufwendig.

Wenn du Lust hast dich damit zu beschäftigen, dann melde dich in der AMD Ram Community.
Wenn du nur ein grobes Optimieren hinbekommen möchtest, dann ist das mit Hilfe relativ schnell erledigt.
Wobei relativ schnell nunmal keine Sache von 20min ist, da alleine das Testen auf Stabilität viele Stunden in Anspruch nimmt.
Auch du solltest halbwegs wissen, was du da tust, sonst erhöhst du nachher die falschen Spannungen.
 
  • Gefällt mir
Reaktionen: Stormfirebird
Ja nee eben, das ist definitiv über meinem Level und das sind mir jetzt 10% mehr FPS (wenn überhaupt?!) auch überhaupt nicht Wert. Also zumindest mir meine Zeit mich damit zu beschäftigen.

Ich hatte überlegt das jemanden machen zu lassen der da Bock drauf und Zeit für hat. Und mein neues System (sollte es denn dann irgendwann mal existieren) einfach mal vorbei zu bringen für ein paar Tage für n Fuffi oder so.

Dafür müssen dann aber auch die besten Voraussetzungen herrschen, also neuste/beste/schnellste CPU und natürlich alles unter Wasser, weil wenn schon, dann auch richtig weil sonst kann ich mir die 10% auch woanders her holen.

Dann belass ichs erstmal bei 3200 Mhz.

Danke dir.
 
NighteeeeeY schrieb:
ch hab noch nie vor einem 144 Hz Panel gesessen und kann absolut nicht einschätzen,, ob sich damit 100 FPS dramatisch höher anfühlen als auf 60 Hz oder ob man dafür dann auch 144 FPS braucht.
Du brauchst nicht zwingend auch 144 FPS für einen 144Hz Monitor.

60 FPS auf 144Hz sehen besser aus, als 60 FPS auf 60Hz.
und 144FPS werden auch auf 60Hz besser aussehen, als 60FPS.

Optimal ist natürlich hohe FPS + hohe Hz. ;)

Da praktisch alle Monitore mit mehr Hz, auch Freesync oder G-sync haben, würde sich der Monitor ja auch an 100 FPS anpassen und ohne Tearing laufen.
NighteeeeeY schrieb:
Aber wenn ich jetzt in 1080p bei 45% GPU Auslastung bei 100 FPS hänge bedeutet das also, dass ich mit DLSS in 1080p "1440p" Qualität auch nur 100 FPS hätte und damit im CPU Limit wäre.
Das kann man so abschätzen.
 
  • Gefällt mir
Reaktionen: Stormfirebird und nighteeeeey
Baal Netbeck schrieb:
auch Freesync oder G-sync haben, würde sich der Monitor ja auch an 100 FPS anpassen und ohne Tearing laufen.

Ja dazu hab ich auch ne Frage. Bzw....ich hab das nie verstanden. G/Free Sync hat zum Zweck.....Tearing zu verhindern? Was ist, wenn ich sowas überhaupt nicht bemerke bzw. es nicht statt findet? Hat es dann immer noch irgendwelche Vorteile? Mikroruckler? 99th Percentile FPS? Irgendwas?

Ich stehe nämlich gerade vor der Frage bzw vor dem Dilemma welchen Monitor zu kaufen.

Ich hätte am liebsten diesen hier (32", 4K, 120/144 Hz ist die Anforderung):

https://geizhals.de/viewsonic-elite-xg320u-vs18554-a2620896.html?hloc=at&hloc=de

Einfach aus dem Grund, weil er natives 10 Bit Panel hat. Das ist für mich jetzt zwar nicht mehr wichtig, weil ich nicht mehr zwingend farbkritisch damit arbeiten muss, aber natürlich immer noch gerne eine recht genaue Elektronik hätte (ich bin Fotograf) zum bearbeiten meiner Fotos. Verdiene aber kein Geld mehr mit Fotografie also ist nur noch Luxus zu haben.

Der hat aber kein G-Sync wenn ich das richtig verstehe.

Wie dramatisch ist das jetzt? Besteht die Möglichkeit bei Monitoren, dass die irgendwann später dann plötzlich doch irgendwie Gsync Compatible werden? Oder muss das hardwaretechnisch gegeben sein?

Und ich hab gesehen es gibt zig verschiedene "Gsync Compatible" Zertifikate die alle irgendwas anderes machen oder auch nicht machen....muss/sollte man darauf achten?

Ich kann absolut nicht einschätzen wie viel Vorteil Gsync in meinem Use Case ist, weil ich mir nicht vorstellen kann, was es überhaupt tut und ich nehme kein Tearing an meinem (äußerst katastrophalen) Monitor wahr. Also darauf achten oder nicht?! Und gibt es irgendwo Videos die man sich anschauen kann, die optisch sichtbar machen, was G*F*Sync tut und was sich verbessert? Also dass man einfach mal ne Vorstellung vom vorher/nachher bekommt? Hat das was für euch gemacht, sofern ihr so einen Monitor einsetzt?

Weil wenn dann müsste ich zu irgendeinem 8 Bit + FRC Monitor greifen, da gibts welche die auch Gsync Compatible zumindest sind. Nativ Gsync unterstützen tut irgendwie nur dieser 3500€ teure Asus 4k 144 Hz Monitor.
Ergänzung ()

Stormfirebird schrieb:
und sonst hast du ja jetzt eine Referenz wo die hingehören.
Also ich verstehe das so: GPU Pcb -> Pads -> Midplate -> direkte Auflage auf/am Kühler? Oder kommen zwischen Midplate und GPU Kühler nochmal Pads? Die sehe ich nirgendwo auf den Fotos.

Was ist, wenn ich jetzt einen Wakü drauf bauen möchte? Ich hatte an einen EKWB gedacht. Weiß ich da jetzt schon irgendwie ob die Midplate runter muss? Oder steht das in der Beschreibung? Der EKWB hat natürlich Einkerbungen auf der Rückseite für Pads, ist das ein Indikator dafür, dass die Midplate dann runter muss? Oder macht man die eh immer ab bei nem Fullcover Wakü Block?
 
Zuletzt bearbeitet:
NighteeeeeY schrieb:
G/Free Sync hat zum Zweck.....Tearing zu verhindern?
Ja, und das ist auch alles was es macht. Microruckler können damit mal besser oder auch schlechter sein aber das hat was mit dem Framepacing des jeweiligen Spiels zu tun.

NighteeeeeY schrieb:
Der hat aber kein G-Sync wenn ich das richtig verstehe.

Wie dramatisch ist das jetzt? Besteht die Möglichkeit bei Monitoren, dass die irgendwann später dann plötzlich doch irgendwie Gsync Compatible werden? Oder muss das hardwaretechnisch gegeben sein?

Und ich hab gesehen es gibt zig verschiedene "Gsync Compatible" Zertifikate die alle irgendwas anderes machen oder auch nicht machen....muss/sollte man darauf achten?
Ob er einfach nicht getestet wurde, die sich das Geld sparen wollten oder ob er bei Nvidia durchgefallen ist weiß man nicht. Grundsätzlich lässt sich Gsync aber auch bei einem solchen Monitor erzwingen, nur eben potentiell mit Problemen.
Zumindest Freesync (was zumindest theoretisch auch immer gleichzeitig Gsync bedeutet) wirst du sowieso immer bekommen in dem Bereich. Mit HDR, hoher Auflösung etc. kann ich da aber nicht mitreden, bei mir werkelt immer noch Full HD und Erfahrungen mit was anderem sind sehr begrenzt. :freaky:

NighteeeeeY schrieb:
Oder kommen zwischen Midplate und GPU Kühler nochmal Pads?
Nein, aber halt an anderen Stellen. Die Midplate fällt weg bei einem Fullcover Block.
 
  • Gefällt mir
Reaktionen: nighteeeeey und Baal Netbeck
NighteeeeeY schrieb:
Ja dazu hab ich auch ne Frage. Bzw....ich hab das nie verstanden. G/Free Sync hat zum Zweck.....Tearing zu verhindern? Was ist, wenn ich sowas überhaupt nicht bemerke bzw. es nicht statt findet? Hat es dann immer noch irgendwelche Vorteile? Mikroruckler? 99th Percentile FPS? Irgendwas?
Kompliziertes Thema.

Kurzform. "Adaptive sync= freesync=G-sync compatible ist sinnvoll und hat eigentlich keine Nachteile"

Normalerweise liest dein Monitor einfach in regelmäßigen Abständen(z.B. 6,9ms bei 144Hz), den Front Buffer zeilenweise aus. Das dauert auch ungefär diese ms und daher baut sich das Bild auf deinem Monitor auch in dieser Zeit von oben bis unten neu auf.

Der Frontbuffer hat immer ein fertiges Bild für den Monitor parat.
Aber die Grafikkarte wird jetzt schon ein neues Bild in den Back buffer rendern.
Das sind aber nur Namen für die Speicherbereiche....sobald das neue Bild fertig ist, wechseln einfach die Bezeichnungen und die Grafikkarte überschreibt den alten FrontBuffer(jetzt back buffer) mit dem nächsten Frame.

Ist der Monitor gerade bei der Hälfte des Frontbuffers angelangt und dann wechselt die GPU die Bezeichnungen, ließt er von da an die zweite hälfte des Bildes aus dem "neuen Frontbuffer"....mit den neuen Bild.

So kann in Bewegungen das Bild "zerreißen"...im oberen Bereich ist der alte Frame und im unteren der neue.
Bei seitlichen Bewegungen verschieben sich die Bilder, oder bei Bewegungen nach oben oder unten können Teile doppelt dargestellt werden oder überdeckt werden.

Mit V-sync wartet die GPU mit dem anfangen des neuen Frames, bis der Monitor den Frontbuffer komplett gelesen hat. Dafür muss sie aber auch schneller rendern, als das Ausleseintervall des Monitors, sonst wird der alte Frame doppelt dargestellt und das kann als ruckeln wahrgenommen werden.

Mit Adaptive Sync wartet der Monitor auf den Wechsel der Buffer, bis er wieder ein neues Bild ausliest.
Dafür muss er aber schneller auslesen können, als die Grafikkarte rendern kann. schafft er das nicht, gibt es wieder Tearing. Auch kann er nicht zu lange warten, weil er das Bild nicht ewig halten kann. Allerdings kann er das gleiche Bild doppelt darstellen (LFC), was die untere Hz Grenze meist irrelevant macht.

Weitere Vorteile von Adaptive sync ist das Timing aus Monitordarstellung und Bildinhalt.
Mit V-sync werden Drawcalls zurückgehalten und veraltete Inhalte gerendert. Auch werden unregelmäßig ablaufende Vorgänge in gleichmäßigen Abständen dargestellt, was zu zeitlich unpassenden Bewegungen führen kann.

Nachteil von Adaptive sync gegenüber dem unsynchronisierten Fall ist der minimal höhere Input lag von ca 1ms.
Gegenüber V-sync ist Adaptive sync aber massiv besser bei der Reaktionszeit.
Wenn dein Setup mit 60Hz Monitor z.B. 25ms hätte, könnte es mit 60FPS und schnellem Freesync Monitor 26ms haben. Aber V-sync mit 60Hz Monitor wären eher 85ms.
Edit: alles sehr Abhängig vom Spiel...Battle(non)sense hat dazu gute Videos auf Youtube.

NighteeeeeY schrieb:
Wie dramatisch ist das jetzt? Besteht die Möglichkeit bei Monitoren, dass die irgendwann später dann plötzlich doch irgendwie Gsync Compatible werden? Oder muss das hardwaretechnisch gegeben sein?
...Wenn der Monitor Freesync kann, kann er auch Nvidia Compatible...er wird nur nicht zwangsläufig auf irgendeiner Liste stehen, aber das kannst du ignorieren.

Es gibt das Nvidia exklusive G-sync, dass ein teures Modul im Monitor voraussetzt. Ausnahmen bestätigen die Regel, aber hier muss der Monitor normalerweise gewisse Qualitätsstandards mitbringen.

Und es gibt das freie "Vesa Adaptive sync", was von AMD "Freesync" genannt wird und von "Nvidia G-sync compatible".
Freesync= Nvidia Compatible. Der einzige Unterschied ist, dass du es für eine Nvidia Grafikkarte im Treiber oft erst erzwingen musst...nach dem erzwingen ist es das gleiche.

Der Nachteil von Vesa Adaptive sync ist die fehlende Qualitätskontrolle. Jeder Monitor kann sich das einfach auf die Fahne schreiben und fertig. Aber das bedeutet nicht, dass der Monitor es auch gut umgesetzt hat.
Es kann zu Bildflackern kommen, die Range kann so klein sein, dass es praktisch nie aktiv ist usw.

Daher muss man hier unabhängige Testberichte zu den Monitoren lesen, wobei ich das immer empfehlen würde. ;)
 
  • Gefällt mir
Reaktionen: nighteeeeey
Baal Netbeck schrieb:
Daher muss man hier unabhängige Testberichte zu den Monitoren lesen, wobei ich das immer empfehlen würde. ;)

Ich habe @Frank dazu vor einiger Zeit schon angeschrieben und dringend darum gebeten, dass CB mal einen 4k 144 Hz 32" Test an den Start bringt. Er hat mir versprochen, dass es da in absehbarer Zukunft wohl was geben wird. Ich warte jeden Tag. ;)

Ja ich habe neulich einen Test zu nem MSI oder so gelesen mit 8 Bit + FRC da klang das alles gut bezüglich Freesync usw.

Aber nochmal, besteht denn die Möglichkeit dass bei mir einfach kein Tearing aufkommt bzw ich es einfach nicht wahrnehme beim spielen und dann Freesync praktisch gar keine Vorteile bietet?

Ich zocke seit langem an nem LG 31MU97 weil das mein Grafikmonitor war. 4k 32" und keine Ahnung....bestimmt 8ms Inputlag oder sowas. Ich spiele wie gesagt nur Tarkov und das ist sowieso alles zäh und schlecht optimiert ^^ für mich bedeutet das, dass ich darauf also erstmal nicht zu sehr Wert legen sollte, weil der Unterschied von 60 auf 144 Hz für mich vermutlich viel wichtiger ist, als jetzt Freesync oder kein Freesync und im Zweifelsfall kann man das eh bei jedem Monitor erzwingen und dann gucken wie gut es ist oder ob sich gefühlt irgendwas verbessert.

Das ist doch schon mal gut zu wissen.

Vielen Dank! :)
Stormfirebird schrieb:
Nein, aber halt an anderen Stellen. Die Midplate fällt weg bei einem Fullcover Block.
Okay super danke dir. Hab dazu gerade hier nochmal was aufgemacht.
 
NighteeeeeY schrieb:
Aber nochmal, besteht denn die Möglichkeit dass bei mir einfach kein Tearing aufkommt bzw ich es einfach nicht wahrnehme beim spielen und dann Freesync praktisch gar keine Vorteile bietet?
Das kann ich nicht ausschließen.

Also entweder bist du da gar nicht empfindlich, oder du spielst immer mit V-sync oder fast sync und daher hast du kein Tearing.

Bei einem 60Hz Monitor kein Tearing zu bemerken ist aus meiner Sicht ziemlich abwegig, aber nicht ausgeschlossen.
Nimm doch mal ein schnelles Spiel mit klaren Kanten, wie Overwatch oder so. Und dann stellst du den FPS Limiter auf 60FPS, aber kein V-sync.
Wenn du dann seitlich läufst, solltest du es gut sehen können.

Auch Spiele wie Anno sind prädistiniert, wenn man z.B. mit der Kamera nach oben und unten scrollt, "wabert" die Landschaft komisch.
 
Bringt das was, wenn ich das aufnehme? Oder ist das auf ner Aufnahme nicht zu sehen? Vermutlich nicht oder?

Ich weiß wie Tearing aussieht, weil ich es manchmal bei einigen auf Twitch gesehen habe und....nein....sowas hab ich absolut nicht. Ich spiele aber auch nicht mit Vsync (logischerweise) auf nem 60 Hz Monitor.

¯\(ツ)

Vielleicht einfach zu wenig FPS oder immer ungefähr richtig wer weiß wer weiß. Mysteriös.

Aber jetzt weiß ich ja zumindest, dass ich darauf bei nem Monitor erstmal nicht achten muss. Vielleicht kriege ich das Problem dann mit 144 Hz. ^^
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:

Ja aber Moment, gibt es deshalb Ram mit höherem Takt zu kaufen? Ist das dazu da? Ich dachte immer Ram der mit höheren Frequenzen beworben wird, lässt sich nur höher übertakten, würde aber trotzdem out of the Box nur mit...keine Ahnung....3200 Mhz laufen. Ist das richtig? Oder gibt es deshalb Ram mit 4000 oder keine Ahnung was Mhz weil der in XMP automatisch mit 4000 Mhz läuft? Ist das die Lösung? Sollte ich mir einfach 4000 Mhz Ram kaufen und kann mir das übertakten sparen? Oder mach ich jetzt hier ein Denkfehler? ^^

Bin übrigens mittlerweile stolzer Besitzer eines Asus Rog 32" 4k 144 Hz und bin sehr zufrieden :) klar, 144 Hz ist schön, aber der unvorstellbare Unterschied wie es alle immer behaupten, war es für mich jetzt irgendwie nicht. Keine Ahnung. Aber trotzdem ganz nett alles n bisschen flüssiger + ein paar nette "Gaming Features". Bin zufrieden. :) Kein Tearing, ich sehe aber auch keinen Unterschied zwischen FreeSync an oder aus. ¯\(ツ)
 
Zurück
Oben