News AMD FreeSync: Neue Anforderungen mit höheren Bildwiederholraten

JMP $FCE2 schrieb:
Neonröhren ohne elektronisches Vorschaltgerät flimmern auch mit 100 Hz, und die waren praktisch überall, besonders in Schulen, Geschäften und Betrieben.
Du willst nicht wissen wie üblich Migräne bei Kindern in den 80ern waren und heute höre ich praktisch gar nichts davon. Da wäre auch niemand auf die Idee gekommen wegen ein paar Mal im Monat zum Arzt zu rennen.
Heute gibt es gleich die Empfehlung wegen einer einzigen Attacke den Arzt aufzusuchen.

Hat das was mit dem Unterschied in der Umgebung zu tun? Vielleicht. Kenne sazu keine Studien, aber warum damals "niemand" Burnout hatte wissen wir mittlerweile, und das lag tatsächlich schlicht am ganzen Blei in der Luft und dem daraus resultierenden extrem stark erhöhten Herzinfarkt Risiko unter Stress.

Bewust gesehen hab ich aber auch kein Flimmern mehr jenseits der 85hz und natürlich war die Auflösung in Bewegung damals besser als heute auf Sample and Hold Displays.
 
Das macht Sinn. Heutzutage sind 144Hz bei 1080p- und 1440p-Monitoren im Grunde genommen Branchenstandard. Langsamere Displays werden so gut wie nicht mehr hergestellt.

Ich kann mir aber denken, dass diese Bezeichnungen für die meisten (technisch unversierten) Kunden zum Schluss überhaupt keine Roll spielen. Der Monitor unterstützt FreeSync und gut.
 
Zuletzt bearbeitet:
DerRico schrieb:
Statt eingeschränktem VSync und dämlichen NV-exklusivem Kram, der alles teurer macht und Konkurrenz unterdrückt, haben wir nun überall Freesync.
Dank Nvidia gibt es heute wohl überhaupt Freesync bzw. G-sync compatitble dank AMD.
Die Module sind nur noch in wenigen Monitoren verbaut und haben keinen realen Vorteil mehr.
Lange Zeit war das aber anders und Freesync startete ohne Framedoubling und Nachteilen.
Ben_computer_Ba schrieb:
Ich konnte mit free sync noch keine gute Erfahrung sammeln, habe mehrere Bildschirme mit free sync Premium gehabt, aber immer flackert es in ein paar wenigen spielen/ Anwendungen.
Dieses Problem habe ich mit meinem MSI MAG272CQR, allerdings nur wenn ich Adaptive Sync mit einer AMD Radeon VII oder 7800XT genutzt habe. Mit der 4080 läuft es einwandfrei. Warum das so ist, habe ich bisher noch nicht rausfinden können. Das Flackern trat vor allem in AW2 und Avatar auf.
CyrionX schrieb:
Über 120Hz ist die Unterscheidungsfähigkeit aber weitestgehend ausgeschöpft.
Ab da an kommen die wahrgenommenen Unterschiede durch andere Aspekte zustande:
Auf meinem 165 Hertz Schirm ist beim Scrollen die Schrift immer noch etwas unscharf.
Selbst auf dem 240 Hertz Schirm eines Kollegen. Erst mit 500HZ wird das perfekt aussehen. (Meine These).
 
Zuletzt bearbeitet:
Bei G-Sync V-Sync aus,Umgebungsverdeckung aus,Multi Frame Sampled AA (MFAA) aus läuft auf meinem Acer Predator mit 240 Hz Super denn die ausgestellten Teile fressen Speicher ohne Ende und haben im Prinzip 0 Nutzen und versauen die Bildqualität und führen zu ständigem nachladen und das bei 12 GB Grafikram und 32 GB RAM auf einer 3600 Lesen sehr schnellen SSD
 
JMP $FCE2 schrieb:
Wobei ich mich wundere, wie diese Menschen das CRT-Zeitalter überstanden haben. 85 Hz waren Standard, und für mich flimmerfrei.
Unter 100Hz bekam ich nach kurzer Zeit schon als Jugendlicher Augenschmerzen. Sobals ich an einem Fremden PC saß habe ich das meist direkt bemerkt und auf >100Hz geschaltet sofern möglich.
JMP $FCE2 schrieb:
Neonröhren ohne elektronisches Vorschaltgerät flimmern auch mit 100 Hz, und die waren praktisch überall, besonders in Schulen, Geschäften und Betrieben.
Das war auch meine Lieblingsbeschäftigung, in der Pause auf die Röhren starren ;p.
Nein, also wie gesagt, es betrifft nur einen kleineren Teil der sensibler aufs flackern ist.
Davon abgesehen sehe ich selbst heute noch hier und da flackernde Lampen, sie stören mich auch obwohl ich mich nicht zu den auf Flackersensiblen zähle, aber man kann meistens ja einfach weggehen, von einem Monitor prinzipiell nicht.
JMP $FCE2 schrieb:
CRT-Fernseher flimmerten mit 50 Hz, nur die teureren hatten digitale Bildspeicherung und 100 Hz.
Da bin ich überfragt. Vielleicht hatten wir auch einfach so ein 100Hz Gerät.
Monitormäßig gings mit einem 14" Fußball los, bis danach ein fantastischer 21"(?) Iiyama Trinitron mit 120-160hz dazukam.
Aber: beim wechsel vom CRT auf TFT hatte ich erstmal wochenlang massive Kopfschmerzen, ausgelößt durch den Wechsel von der Flimmerkiste auf das statische LCD-Display. Ich erinnere mich gut, dass dies weit verbreitet war, was für den Unterschied in der Wahrnehmung von CRT und LCD spricht. (auch oder gerade weil 60hz hier nicht miteinander vergleichbar sind.)
JMP $FCE2 schrieb:
War für mich keine Option, weil schlechter, wenn die 60 fps nicht erreicht wurden. Die zerrissenen Frames sind kürzer sichtbar bei höheren Bildwiederholfrequenzen.
Wenn die 60fps nicht erreicht wurden hat sich vsync abgeschaltet.
Bei höheren fps über 60 gab es logischerweise kein Tearing, man konnte auch höhere maximalfrequenzen einstellen. Ich finde die Funktion war insgesamt eher unbekannt.
Wie gesagt keine ideallösung, aber manchmal doch nützlich, wenn die 60fps eher selten unterboten wurden.
 
Quidproquo77 schrieb:
Erst mit 500HZ wird das perfekt aussehen. (Meine These).
Entweder mit Black Frame Insertion oder mit OLED und jenseits der 240 Hz
 
  • Gefällt mir
Reaktionen: Haldi
Quidproquo77 schrieb:
Auf meinem 165 Hertz Schirm ist beim Scrollen die Schrift immer noch etwas unscharf.
Selbst auf dem 240 Hertz Schirm eines Kollegen. Erst mit 500HZ wird das perfekt aussehen. (Meine These).
Das liegt eher an der LCD Technologie.. die Pixel haben reale Schaltzeiten von 6-10ms (von 0 auf 100% Farbe)
Ergo so ab 140-160 FPS schmiert dir das Overdrive was die nächste Pixelschaltung schätzt eh alles zusammen..
Egal wie viel hunderte Herz du da drauf knallst.

Ich hab hier n 165hz OLED und der lässt den 240hz LCD einfach nur alt und matschig aussehen was die Bildqualität in Bewegung angeht
 
  • Gefällt mir
Reaktionen: CyrionX und Haldi
Blackfirehawk schrieb:
Mit diesen 8 Beleuchtungszonen pseudo HDR400/600 Monitoren brauchst du gar nicht über HDR fähigkeit anfangen zu reden.. da kannst es direkt aus lassen.. ist so sinnvoll wie ne freesync Range von 48-60
Die Syncrange sehe ich anders. Etwas Freesync ist um welten besser als gar keines
Aber schlechtes HDR ist schlechter als keines
 
  • Gefällt mir
Reaktionen: Suspektan
bad_sign schrieb:
Aber schlechtes HDR ist schlechter als keines
Das stimmt leider...

Und leider haben diese miesen Displays den Ruf von HDR sehr versaut
 
Ray519 schrieb:
Aber beide Hersteller versuchen das als eigene Marke zu verwerten, die noch so wirkt als wäre es proprietär.
Das seh ich nicht so, man muss unterscheiden zwischen Implementation und API und Hardware.

Nvidia verlangte das Hersteller proprietäre Hardware verbauen, selbst wenn andere Hersteller das irgendwie per Blackbox Verfahren reverse Engineered hätten, hätte sie Nvidia verklagen können und deshalb auch getan.
Sie haben diese Hardware auch nur möglicherweise aus 2 Gründen verbaut, um diese Exklusivität zu sichern und oder um es schneller implementieren zu können. Die Ausrede das es um Qualität ginge ist nichtig wäre das der Fall und solche Hardware wäre nötig um nicht massive Einschränkungen zu haben dann würde Nvidia immer noch drauf setzen und die Leute es kaufen.

Freesync ist nur eine Implementation die sich an dem heute existierenden und damals sich langsam entwickelte Standard orientiert.

Es ist durchaus üblich einer Implementation eine anderen Namen zu geben wie einem Standard. So ist zum Beispiel die Java Class Library ein Standard und GNU Classpath eine Implementation dessen.

Oder nehmen wie Displayport Standard dort hat auch jede Firmen eine eigene Implementation im Treiber, sicher sie haben keine eigenen Namen dafür und Premium Zertifizierungen die nur die besten der Angebotenen Lösungen auf nimmt, aber das ist mehr oder weniger reines Marketing.

Was soll daran proprietär sein? Ok sie hatten vor HDMI das anbot auch support für VRR über HDMI, ist das jetzt ein Verbrechen und hat das Nvidia irgendwie eingeschränkt das selbe zu tun? Sind sie dann nur offen wenn sie Nvidia die Treiber zu schicken damit sie den Source 1:1 copy pasten können in ihren Treiber und neu kompilieren? Ich versteh echt das argument nicht.
VRR ist praktisch gesehen Freesync ausser das es eben AMD Marketing ist das ist alles. Jeder Freesync Monitor wird auch Intel und Nvidia VRR unterstützen und umgekehrt sofern sie es implementiert haben ob es schon standardisiert ist oder ein paar hersteller bisschen schneller sind wie die Standardisierung ist irrelevant nach meiner Kenntnis verraten die Monitorhersteller nicht AMD exklusive das sie VRR über HDMI nun anbieten werden, jeder hat gleichzeitig die informationen ob es nun public Knowledge oder ein Standard ist ist Haare spalten.
 
Blackfirehawk schrieb:
Und da geht unter 512+ miniled Zonen.. oder am besten direkt OLED eigentlich gar nix.

Mit diesen 8 Beleuchtungszonen pseudo HDR400/600 Monitoren brauchst du gar nicht über HDR fähigkeit anfangen zu reden.. da kannst es direkt aus lassen.. ist so sinnvoll wie ne freesync Range von 48-60
Haha ja.
War mein erster Monitor mit HDR Support.
Eine absolute Katastrophe.
Inzwischen sind 4 Generationen vergangen und die sind bei
  • Quantum Mini-LEDs für beste Helligkeit und 2392 Dimming Zonen
Angekommen.
Fällt mir gerade auf dass der Monitor ja AMD Freesync Premium Pro zertifiziert ist xD
Leider gerade keine aktuelle AMD Karte hier um HDR zu testen.


Aprobo Displayport!
Habt ihr diesen Stecker schonmal gesehen?
 
  • Gefällt mir
Reaktionen: Ja_Ge und Deinorius
Quidproquo77 schrieb:
Dieses Problem habe ich mit meinem MSI MAG272CQR, allerdings nur wenn ich Adaptive Sync mit einer AMD Radeon VII oder 7800XT genutzt habe. Mit der 4080 läuft es einwandfrei. Warum das so ist, habe ich bisher noch nicht rausfinden können. Das Flackern trat vor allem in AW2 und Avatar auf.
Hatte sowohl Probleme mit dem Huawei matview gt 34, Huawei MateView gt 27 als auch mit dem Acer Predator x27u3z oder wie genau der heißt. Bei allen so ziemlich das selbe Phänomen, auch wenn der Acer am wenigsten betroffen ist.
Ein fehlerhaftes Produkt kann ich allerdings auch ausschließen, habe am Arbeitsrechner 2x den MateView 34 übereinander und links und rechts jeweils zwei MateView 27, dass 6 Monitore einen Fehler haben, zweifle ich Mal an. Ist am Arbeitsrechner aber auch nicht schlimm, auf free sync/ g-sync zu verzichten.
Am spiele Rechner habe ich ebenfalls zwei Mal den Acer Predator x27 und kann g-sync vergessen, es flackerte was gerade in Story Games und Simulatoren massiv gestört hat, optisch nicht schön und nach einiger Zeit Kopfschmerzen, waren die Folge. Lediglich in shootern war es eher weniger ein Problem, daraufhin den Predator x38 mit g-sync ultimate gekauft und keinerlei Probleme mehr, kein flackern, keine Schlieren usw. Einfach super und der lüfter ist auch unhörbar, aber eben eigentlich zu teuer für das gebotene. Probiert habe ich die MateView Monitore sowohl mit einer 3090 als auch der 4090, an den Acer Bildschirmen hatte ich bis jetzt eine 3080, 6950xt als auch die 4090 laufen, bei allen genau die selbe Problematik.
Mimir schrieb:
Hattest du Monitore mit VA Panel? Falls ja, die können durchaus flimmern mit VRR, das ist typsich.
Mit IPS sollte es keine Probleme geben.
Die Huawei waren allesamt va, die beiden Acer allerdings nicht
 
blackiwid schrieb:
Freesync ist nur eine Implementation
Lesen ist nicht deine Stärke mhh? FreeSync über HDMI eben nicht. Über DP ja, habe ich auch gesagt. Und FreeSync HDMI ist auch nicht öffentlich und hat bisher auch niemand ohne ein FreeSync Logo geboten. Mein Punkt war, dass es fast schon notwendigerweise bei neuen Dingen proprietäre Entwicklungen gibt. Und das ist etwas das AMD genauso macht, wenn sie mal die ersten sind etwas zu tun.
War das nicht so ein Ding, dass die Konsolen kein FreeSync HDMI konnten (ich habe das nicht genau verfolgt, möglich dass manche das mittlerweile können), nur HDMI VRR und es deshalb wahnsinnig schwer war für Kunden passende Displays zu identifizieren, weil unter dem FreeSync Logo laufen alle 3 Techniken. Und erst gegen Ende überwiegt jetzt HDMI VRR an den ganzen Displays die eh HDMI FRL nutzen.

Wenn die Standards dann rauskommen, die Herstellerübergreifend gehen, fangen sie an zu gewinnen gegenüber den proprietären Lösungen. Und ich werte den Versuch dass genauso wie die ursprünglich proprietäre Technik zu branden als schlecht.

blackiwid schrieb:
jeder Freesync Monitor wird auch Intel und Nvidia VRR unterstützen
NEIN. LESEN. Die ganzen klassischen FreeSync über HDMI 2.0 und weniger Displays gehen über HDMI nur an AMD Karten. Und der Zug, dass zu standardisieren ist abgefahren (keine Ahnung ob sie es versucht haben). HDMI VRR ist standardisiert. Und FreeSync HDMI ist nicht kompatibel dazu. Deshalb gehen diese Displays auch nicht mit mit VRR an Nvidia GPUs über diesen HDMI Eingang. Nur die Displays die dem HDMI VRR Standard folgen, der erst mit HDMI 2.1 rauskam sind Herstellerübergreifend zu nutzen.

Du fällst genau auf das Marketing rein, das alles "FreeSync" ist und man nicht die Technik hinter der Marke unterscheidet.

Mein AW3821DW kann HDMI VRR, Adaptive Sync und das proprietäre G-Sync. Aber er kann an jedem Eingang einen offenen Standard. So ein Monitor wie dieser hier kann nur am DP Eingang den offenen Adaptive Sync Standard. Am HDMI Eingang kann er keinen offenen VRR Standard der auch außerhalb von AMD geht (wobei ich das orakel, weil das eben sowohl bei Nvidia als auch bei AMD nicht sinnvoll angegeben wird. Aber rtings bestätigt, nur FreeSync HDMI, kein HDMI VRR).

Aus EDID-Daten:
FreeSync HDMI
Code:
Vendor-Specific Data Block (AMD), OUI 00-00-1A:
    Version: 2.3
    Minimum Refresh Rate: 48 Hz
    Maximum Refresh Rate: 120 Hz
    Flags 1.x: 0xe6 (MCCS)
    Flags 2.x: 0x07
    Maximum luminance: 108 (518.736 cd/m^2)
    Minimum luminance: 44 (0.154 cd/m^2)
    Maximum luminance (without local dimming): 108 (518.736 cd/m^2)
    Minimum luminance (without local dimming): 44 (0.154 cd/m^2)

HDMI VRR
Code:
Vendor-Specific Data Block (HDMI Forum), OUI C4-5D-D8:
    Version: 1
    Maximum TMDS Character Rate: 600 MHz
    SCDC Present
    VRRmin: 2 Hz
    VRRmax: 120 Hz

DP Adaptive Sync
Code:
 Display is continuous frequency
[...]
 Monitor ranges (Bare Limits): 1-144 Hz V, 246-246 kHz H, max dotclock 990 MHz

G-Sync proprietär
Code:
Vendor-Specific Data Block (NVIDIA), OUI 00-04-4B:
    01 01
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ja_Ge und bad_sign
Haldi schrieb:
Haha ja.
War mein erster Monitor mit HDR Support.
Eine absolute Katastrophe.
Inzwischen sind 4 Generationen vergangen und die sind bei
  • Quantum Mini-LEDs für beste Helligkeit und 2392 Dimming Zonen
Angekommen.
Fällt mir gerade auf dass der Monitor ja AMD Freesync Premium Pro zertifiziert ist xD
Leider gerade keine aktuelle AMD Karte hier um HDR zu testen.
Mit 2392 Zonen gehört der Monitor aber schon zu den besseren..
Am besten ist natürlich OLED für HDR..

HDR kannst du auch mit Intel und Nvidia testen..
Die Wahrscheinlichkeit ist sogar sehr hoch das der Monitor mit Nvidia/Intel sogar bedeutend besseres HDR tonmapping hat als mit AMD
 
  • Gefällt mir
Reaktionen: Ja_Ge
JMP $FCE2 schrieb:
Wobei ich mich wundere, wie diese Menschen das CRT-Zeitalter überstanden haben.

Es gibt auch heute noch Leute, die beispielsweise bei bestimmten LEDs das Flackern sehen. Oder diejenigen, die auf PWM-gesteuerte Hintergrundbeleuchtung bei Displays reagieren. Ich selbst bin davon zum Glück nicht betroffen, aber bei CRTs habe ich den Schritt von 75Hz (Galt als Mindestmaß für flackerfreies Bild) auf 85Hz und 100+Hz durchaus bemerkt.

Will sagen: Jeder empfindet das anders, und hier gibt es kein "richtig" oder "gibt's nicht".
 
  • Gefällt mir
Reaktionen: CyrionX
Quidproquo77 schrieb:
Auf meinem 165 Hertz Schirm ist beim Scrollen die Schrift immer noch etwas unscharf.
Selbst auf dem 240 Hertz Schirm eines Kollegen. Erst mit 500HZ wird das perfekt aussehen. (Meine These).
Stimmt, der Widerspruch lässt sich auch erst wieder auflösen wenn man Schärfe und "Bewegungsflüssigkeit" differenziert,
Sonst werden die Wahrnehmungsbestandteile teils dem falschen Kriterium zugesprochen.

Wie auch in anderen Kommentaren angedeutet, hängt die Schärfe in Bewegung neben den Hz eigentlich zuerst mit den Reaktionszeiten zusammen.
Da aber die Unschärfe durch höhere Hz-Zahlen auf LCD(!) Monitoren verringert wird, geht man oft fälschlicherweise davon aus, dass die Hz Zahl der primäre Faktor für die Bewegungsschärfe sei.
Dabei verringern die höheren Hz, in diesem Kontext, die zu hohen Reaktionszeiten und damit das Ghosting/Schmieren, wodurch sich eben die Bewegungsschärfe erhöht. Undzwar auch wenn schon längst kein stottern ("Flüssigkeit" ) zu beobachten wäre.

Ein extremes Unterscheidungsbeispiel:
ein Text wird in 1 Sekunde in gleichbleibender Geschwindigkeit um 120 Zeilen hochgescrollt, dann ist es bei minimaler Reaktionszeit unerheblich ob 120Hz oder 240Hz/480Hz usw anliegen, denn jeder einzelne Pixel kann sich nur um 1 Zeile verschieben.
Aber:
Wir scrollen nicht perfekt, darum könnte die Schrift bei 120Hz auch Zeilen überspringen wodurch ein Ruckeln entstehen könnte. Dadurch wären 240Hz (mit VRR) wieder im Vorteil, die Bewegung wird zeitlich genauer abgebildet.

-> Dies wäre dann jedoch die abgebildete Bewegungsflüssigkeit aber nicht die Bewegungsschärfe, deshalb würde gescrollter Text auch bei 10.000Hz, aber langem Nachleuchten, immer noch sehr unscharf wirken.
(Ironischerweise kaschiert Ghosting umgekehrt bei niedrigen Hz das ruckeln, deshalb ist ein 60Hz OLED unangenehmer als ein 60Hz Non-OLED, denn das stottern wird sichtbarer.)

Also würde ich einem 240Hz Display auch den möglichen Vorteil beim lesen nicht absprechen, wobei jetzt relevant wäre wie schnell in der Praxis beim lesen wirklich gescrollt wird.
Dies wäre dann der entscheidende Ausgangswert um eine notwendige Hz/Reaktionszeit-relation ermitteln zu können. Für Gaming sähe diese wieder völlig anders aus.

In dem Hz/Reaktionszeiten Bereich in dem wir uns befinden, überschneiden sich darum beide Faktoren und meist sind entweder die Hz (OLED) oder die Reaktionszeiten zu gering (IPS etc).

Es gibt also irgendwo einen (flexiblen) Sweetspot zwischen Hz und Reaktionszeit an dem beide Kriterien, also Schärfe und "Flüssigkeit", so hoch sind, dass eine jeweilige Erhöhung kaum noch wahrnehmbar wäre und auch den anderen Wert nicht mehr kompensieren kann. Darum könnte auch nicht mal theoretisch gesagt werden, dass 10. 000Hz automatisch besser sind als 240Hz.
Diese Idealwerte für diesen Zweck, behaupte ich, können mittelfristig nur durch schnellere OLEDs erreicht werden, also zb 240Hz bis 480Hz. Ab da an wäre die Bewegungsflüssigkeit für das allermeiste ausreichend und die Bewegungsschärfe ist jetzt schon nahe am ideal

Das eben immerin Abhängigkeit von der Anwendung, also Textscrollen, Gaming, Sitzabstand, Displaygröße usw usf...

Leider ein zu komplexes Thema, darum wird zwangsläufig auf "Mehr Herz" vereinfacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und HageBen
Ray519 schrieb:
Du fällst genau auf das Marketing rein, das alles "FreeSync" ist und man nicht die Technik hinter der Marke unterscheidet.
Nur mit dem Unterschied das AMD nichts ändern kann Nvidia ist in dem Gremium von HDMI, hätten sie gewollt hätten sie VRR schon zeitgleich mit Displayport verlangen können.
Die Frage ist doch was hätte AMD gemacht, hätte Nvidia gefragt ob sie die Specs haben können, der Windowstreiber ist nun mal proprietär und source veröffentlichen kostet Zeit und Geld da die von Anwälten alles abchecken müssen um nicht irgendwelche Patentklagen oder so was zu kriegen.

Btw stell ich mir die Frage ob Nvidia nicht doch Zugang hatte zu der Dokumentation von Freesync und sich nur nicht entschloss es zu implementieren weil sie den Sieg AMD nicht geben wollten AMD Freesync support auf ihre Boxen zu schreiben:
https://en.wikipedia.org/wiki/FreeSync

Da steht nämlich Lisense "Open Standard" , "royalty-free". Gut dann ist es in dem Sinne propritär das Nvidia nen AMD Logo auf ihre Karten hätte machen müssen, aber das ist schon bisschen was anderes als ein Hardwaremodul zu verteilen das unmöglich ist für andere zu implementieren und dieser Standard nicht offen an zu bieten weder mit Nvidia Logo noch sonst wie.

Und selbst das Logo hätten sie vermutlich nicht drucken müssen, die Logos sind normalerweise Verkaufsgründe für Hardware das man das supported also AMD verpflichtet die wahrscheinlich nicht mal irgendwelche Aufkleber wo drauf zu machen, aber sie dürften es nicht als Gsync HDMI oder so was vermarkten...

Bis ich andere Informationen finde geh ich davon aus das Nvidia nur nirgends nicht mal in der Bedienungsanleitung oder Specs "AMD Freesync" stehen haben wollte und deshalb sich geweigert hat es zu implementieren.
 
Zuletzt bearbeitet:
Fighter1993 schrieb:
Wie Smooth aufeinmal der Mauszeiger unter Windows ist 😅
Das liegt korrekt schon an der höheren Frequenz, aber nicht an Freesync, da Microsoft schon seit Ewigkeiten seine eigene Sync-Technologie hat.
 
  • Gefällt mir
Reaktionen: Fighter1993
cvzone schrieb:
Ja, aber mit LFC inzwischen fast bedeutunglos. Ich hatte mir kürzlich nen Portable 18" LCD gekauft und der hat auch nur 60-144. Aber bei 59 FPS springt er durch LFC sofort auf VRR 118 Hz hoch. (50 FPS dann 100 Hz und 30 FPS 90 Hz etc.)

Man darf auch an den Stromverbrauch denken und ein Monitor GPU Gespann, welches runter taktet, ist sparsamer als ein Vervielfachen der Frequenz. Ich hoffe, dass Microsoft die variable Refreshrate am Desktop unter Windows noch in den Griff bekommt. Bis jetzt taktet diese nur auf 60Hz runter, obwohl im Idle ja noch viele niedrigere Widerholraten bei statischem Content möglich wären. Zumal es beim hoch Takten bei mir zum Flackern kommt. Macht heute schon jedes gute Handy (und Laptop).


JMP $FCE2 schrieb:
Wobei ich mich wundere, wie diese Menschen das CRT-Zeitalter überstanden haben. 85 Hz waren Standard, und für mich flimmerfrei. Für höhere Bildwiederholfrequenzen musste man Auflösung opfern, deshalb habe ich 1152x864@120 Hz nur für Quake Live verwendet.

Neonröhren ohne elektronisches Vorschaltgerät flimmern auch mit 100 Hz, und die waren praktisch überall, besonders in Schulen, Geschäften und Betrieben.

CRT-Fernseher flimmerten mit 50 Hz, nur die teureren hatten digitale Bildspeicherung und 100 Hz.

CRTs haben eine Beschichtung, die je nach Technik leicht bis stark nachleuchtet, da fällt das Flackern entsprechend nicht so stark auf. Angenehm war das im Vergleich zum damals ollen LCD dennoch nicht. Diese hatten dann aber auch keine LED Beleuchtung sondern noch gute alte Kaltkathodenröhren :)
 
Zurück
Oben