News „Intel FreeSync“: Laut Chris Hook ist Adaptive-Sync weiterhin geplant

@immortuos
Wieso? Ist doch die technisch beste Umsetzung. Wäre schade für die Gaming Welt, wenn sie ausstirbt.:(
 
  • Gefällt mir
Reaktionen: t3chn0 und kisser
Zotac2012 schrieb:
So lange Nvidia auf sein proprietäres GSync setzt, wird Freesync von den Nvidia Grafikkarten nicht unterstützt. Und bisher gibt es nicht mal ansatzweise einen Hinweis von Nvidia, das sich da etwas in Zukunft ändern könnte!
Das braucht sich auch nicht ändern freesync funktioniert ja über einen Trick siehe
https://www.computerbase.de/2018-08/trick-freesync-mit-nvidia-gpu/ wenn das jetzt auch mit adaptiv funktioniert wäre top.
Ergänzung ()

Zotac2012 schrieb:
So lange Nvidia auf sein proprietäres GSync setzt, wird Freesync von den Nvidia Grafikkarten nicht unterstützt. Und bisher gibt es nicht mal ansatzweise einen Hinweis von Nvidia, das sich da etwas in Zukunft ändern könnte!
Das braucht sich auch nicht ändern freesync funktioniert ja über einen Trick siehe
https://www.computerbase.de/2018-08/trick-freesync-mit-nvidia-gpu/ wenn das jetzt auch mit adaptiv funktioniert wäre top.
 
  • Gefällt mir
Reaktionen: Zotac2012
Rhino One schrieb:
Das braucht sich auch nicht ändern freesync funktioniert ja über einen Trick

Wenn ich mir einen Gaming-Monitor für eine 4-stellige Summe anschaffe, möchte ich mich dabei nicht auf Tricks verlassen müssen, die mit dem nächsten Treiberupdate von Nvidia vielleicht nicht mehr funktionieren.

Minutourus schrieb:
Bleibt ihnen ja nichts anders übrig oder wollen Sie den HDMI Standard dafür auslassen?

Intel könnte iGPUs mit HDMI 2.1-Unterstützung bringen, die aber einfach keinen Gebrauch von VRR machen.
Nur weil HDMI das dann unterstützt, müssen es die darüber angeschlossenen Geräte ja nicht zwangsweise nutzen. Wenn z.B. ein UHD-BluRay-Player über HDMI 2.1 an einen Fernseher angeschlossen wird, passiert dabei garantiert auch keine dynamische Synchronisation von Framerate und Refresh.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DarkerThanBlack und Nelathan
Iapetos schrieb:
Leider nein. DP 1.2a muss nicht heißen, dass der verbaute Scaler auch Adaptive Sync kann.
Aber beim kommenden HDMI 2.1 Standard ist Variable Refresh Rate (VRR) und Quick Frame Transport (QFT) inkludiert.

Iapetos schrieb:
Ab einer niedrigen Framerate werden Frames verdoppelt. Anders wäre das auch nicht möglich, weil die Leuchtstoffe nicht ewig nachleuchten.
LCD Panels haben ein konstantes Backlight, die Helligkeit ändert sich nicht während eines Frames auch wenn es kürzer ist.
 
Zotac2012 schrieb:
Und bisher gibt es nicht mal ansatzweise einen Hinweis von Nvidia, das sich da etwas in Zukunft ändern könnte!

Das wirste auch nicht erleben denn Gsync Monitore gehen trotz des krassen Gsync Aufpreises weiterhin weg wie warme Brötchen - solange die Leute einfach zahlen egal was verlangt wird ändert sich da gar nichts.
 
anexX schrieb:
Das wirste auch nicht erleben denn Gsync Monitore gehen trotz des krassen Gsync Aufpreises weiterhin weg wie warme Brötchen - solange die Leute einfach zahlen egal was verlangt wird ändert sich da gar nichts.
Ist doch bei NV, Intel, MS, EA, Ubi etc überall das gleiche - großes Gemecker, Konsequenzen ziehen aber die wenigsten und die kundenfeindlichen Konzerne lachen sich über die Kritiker schlapp...
 
  • Gefällt mir
Reaktionen: Tanzmusikus, AssembIer und TheBear1517
Schlammsuhler schrieb:
Aber beim kommenden HDMI 2.1 Standard ist Variable Refresh Rate (VRR) und Quick Frame Transport (QFT) inkludiert.
Und was hat das mit DP 1.2a zu tun?
Schlammsuhler schrieb:
LCD Panels haben ein konstantes Backlight, die Helligkeit ändert sich nicht während eines Frames auch wenn es kürzer ist.
Und was hat die Hintergrundbeleuchtung mit den Leuchtstoffen in den Subpixeln zu tun?
 
estros schrieb:
Wieso? Ist doch die technisch beste Umsetzung. Wäre schade für die Gaming Welt, wenn sie ausstirbt.:(
Mal nebeneinander getestet? Der Unterschied ist minimal, dafür zusätzliche Hardware verbauen zu müssen ist unnötig. Ohne Direktvergleich merkt man keinerlei Unterschied.
G-Sync ist in vielerlei Hinsicht unnötig und nur noch am Markt, weil Nvidia Käufer derzeit keine Alternative haben.
 
  • Gefällt mir
Reaktionen: TowelieMcTowel
Iscaran schrieb:
Vielleicht gibt ja nVidia dann auch endlich ihre Blockadehaltung auf...
GSync ist zwar etwas teurer, dafür aber qualitativ auch etwas besser. Warum sollte nVidia also dieses Qualitätsmerkmal aufgeben? Das ist so als ob Gucci seine Sachen jetzt so günstig verkaufen würde wie Addidas.
Natürlich können die das, aber warum sollten sie? Sie haben das bessere Produkt und Leute, die das haben wollen, die bezahlen auch gerne dafür.
 
  • Gefällt mir
Reaktionen: kisser
Iapetos schrieb:
...d was hat die Hintergrundbeleuchtung mit den Leuchtstoffen in den Subpixeln zu tun?
Du scheinst irgendwleche "leuchtstoffe" zu dir genommen zu haben. Anders ist der Unsinn den du von dir gibst nicht zu erklären.
In der LC-schicht leuchtet gar nichts, in den sub-pixeln sind nur Farbfilter die eben nur das Licht einer bestimmten Farbe, der meist weißen Hintergrundbeleuchtung, durch lässt.
 
  • Gefällt mir
Reaktionen: palimpalim6414
noxon schrieb:
GSync ist zwar etwas teurer, dafür aber qualitativ auch etwas besser.

Wohl eher deutlich Teurer.:rolleyes:
Mein 4k IPS hätte mich vor zwei Jahren zu einem Vergleichbaren 300€ mehr gekostet und währe auch paar Monate später verfügbar gewesen.
An sich spricht nichts gegen das es Gsync für "highend" sollen sie halt drauf Zahlen.
Aber es nerft schon gewaltig das NV bis heute nicht Async supportet.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: palimpalim6414 und fox40phil
Na passt doch - für den Aufpreis den man für G-Sync zahlt kauft man sich einfach eine "kleine" AMD GPU und übergibt ihr die vom primären Adapter gerenderten Framebuffer daten und lässt sie die Ausgabe erledigen. Mit Freesync.

Falls man doch später eine gute AMD GPU nutzen möchte hat man bereits ein Freesync monitor und eben keine G-Sync panel das einen wiederum zwingen würde eine nVidia GPU zu kaufen. Denn umgekehrt ist ja auf einem G-Sync Display die Nutzung von Adaptive Sync auch "unmöglich".

So kann nVidia weiterhin ihr Zeug verkaufen und ihren Standard halten, und die informierten Nutzer können halt auswählen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
noxon schrieb:
GSync ist zwar etwas teurer, dafür aber qualitativ auch etwas besser. Warum sollte nVidia also dieses Qualitätsmerkmal aufgeben? Das ist so als ob Gucci seine Sachen jetzt so günstig verkaufen würde wie Addidas.
Natürlich können die das, aber warum sollten sie? Sie haben das bessere Produkt und Leute, die das haben wollen, die bezahlen auch gerne dafür.

Wenn Nvidia von dieser Meinung tatsächlich überzeugt wäre, würden sie Adaptive Sync nicht aktiv blockieren. Was besser ist, entscheidet normalerweise der Markt, resp. der Kunde.

Da Nvidia aber genau weiß, dass kaum jemand 100-250 Euro mehr für G-Sync zahlen würde, wenn es Adaptive Sync kostenfrei dazu gibt, unterbinden sie einen offenen Standard einfach, um erst gar nicht in die Verlegenheit zu kommen, sich am Markt messen zu müssen.
 
  • Gefällt mir
Reaktionen: immortuos, Tanzmusikus, stevefrogs und eine weitere Person
msgt schrieb:
Du scheinst irgendwleche "leuchtstoffe" zu dir genommen zu haben. Anders ist der Unsinn den du von dir gibst nicht zu erklären.
In der LC-schicht leuchtet gar nichts, in den sub-pixeln sind nur Farbfilter die eben nur das Licht einer bestimmten Farbe, der meist weißen Hintergrundbeleuchtung, durch lässt.

Jein, ich hab da mal nachgelesen, von wegen modifizierte Treiber für niedrigere Refreshraten bei FreeSync. Da wurde dann erklärt, dass die Farbfilter eben wieder auf den Ausgangsstatus zurückkehren, wenn der Scaler lange kein neues Signal sendet. So entstehen dann bei zu niedrigen Refreshraten Farbfehler oder der Bildschirm wird sogar schwarz, etc. Kann man irgendwo hier bzw. in den Links darunter nachlesen: https://www.reddit.com/r/Amd/comments/3mdj57/freesync_monitor_driver_hack_expands_refresh_rate/

Bisher hab ich es selber noch nicht ausprobiert, da ich trotz einiger Versicherungen nicht so ganz darauf vertraue, dass es nicht den Monitor beschädigen kann und es so dringend auch nicht nötig ist. :D
 
Shrimpy schrieb:
An sich spricht nichts gegen das es Gsync für "highend" sollen sie halt drauf Zahlen.
Aber es nerft schon gewaltig das NV bis heute nicht Async supportet.
Also ich würd's aber auch nicht machen. Erst Geld in R&D investieren und dann wenn ich davon profitieren kann das Produkt nicht angemessen vermarkten. Zumal es super der Kundenbindung dient,
Es kann doch keiner im Ernst glauben, dass nVidia so etwas freiwillig aufgibt. Würde AMD oder Intel auch nicht tun.
Im Gegenteil. Man sieht ja an FreeSync 2, dass auch AMD versucht die Kunden stärker an die eigenen Grafikkarten zu binden. Die HDR-API von Freesync 2 muss nicht zwangsläufig auch bei Intel funktionieren.
Wir dürfen nicht vergessen, dass HDR mit den Freesync 2 Monitoren nur funktioniert, wenn die Spiele das auch explizit implementieren und wer weiß, ob Intel das auch mit seinen Treibern unterstützen darf oder ob nur AMD so etwas in seinen Treibern hat. Bestandteil von DirectX oder OpenGL ist es jedenfalls nicht.
HDR in Far Cry 5 funktioniert momentan jedenfalls nur mit AMD Karten und nvidia User können es nicht nutzen.

Anders herum macht nVidia natürlich das Gleiche. In der Beziehung unterscheiden die sich alle nicht. Erst recht nicht die jenigen, die gerade aktuell den Markt beherrschen.


Capone2412 schrieb:
Da Nvidia aber genau weiß, dass kaum jemand 100-250 Euro mehr für G-Sync zahlen würde, wenn es Adaptive Sync kostenfrei dazu gibt
Sei dir da nicht so sicher. Mir ist klar, dass bei AMD Fans oft der Preis das entscheidene Kaufkriterium ist, aber das ist bei nVidia Usern eben oft nicht der Fall.
Ich bezahle gerne etwas mehr um die Nachteile von Freesync nicht in Kauf nehmen zu müssen. Meinst du da jucken mich die paar 100€?

Wie gesagt. Der Kauf von Gucci Schuhen mag für viele unlogisch erscheinen, weil Addidas Schuhe doch auch ganz gut und viel günstiger zu haben sind, aber Gucci ist halt ein klein wenig besser und es gibt halt Leute, denen macht es nichts aus, dafür mehr auszugeben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser
msgt schrieb:
Du scheinst irgendwleche "leuchtstoffe" zu dir genommen zu haben. Anders ist der Unsinn den du von dir gibst nicht zu erklären.
In der LC-schicht leuchtet gar nichts, in den sub-pixeln sind nur Farbfilter die eben nur das Licht einer bestimmten Farbe, der meist weißen Hintergrundbeleuchtung, durch lässt.
Jaja, gleich beleidigend werden, weil ich den im Englischen gebräuchlichen, aber eher unpräzisen Begriff "Phosphor" mit Leuchtstoff übersetzt habe (was rein linguistisch nicht falsch ist).

Meine tägliche Dosis Leuchtstoffe geht dich außerdem überhaupt nichts an! (Sondern nur mich, meinen Schamanen und meinen Giftmischer.)
 
  • Gefällt mir
Reaktionen: Tanzmusikus, palimpalim6414 und Elite_Warrior
Iapetos schrieb:
Und was hat die Hintergrundbeleuchtung mit den Leuchtstoffen in den Subpixeln zu tun?
Die Subpixel leuchten nicht selbst (ausser Quantumdots) sondern werden bei Strom *ausgeschalten*. Hier nachzulesen: https://www.explainthatstuff.com/lcdtv.html
Wenn also die Frequenz zu niedrig ist, dann würden eher die schwarzen Pixel grau werden.
Bei meinem IPS Bildschirm habe ich aber schon 12Hz getestet und mir wäre sowas nicht aufgefallen.
 
Auch bei Quantenpunkten leuchten die Subpixel nicht, es wird lediglich aus eher blauem Licht in der mit Quantenpunkten dotierten Lichtleiterfolie (oder wo auch immer) Licht diskreter Wellenlängen erzeugt - das ist wohl effizienter, als die herkömmlichen "weißen" LEDs, die ja auch nur blaue LEDs mit weiß leuchtendem (also wahrscheinlich quecksilberhaltigem, denn Quecksilber emittiert nach Anregung rotes, grünes und blaues Licht, das uns weiß erscheint) Leuchtstoff sind.

Ja, es ist nicht ganz so einfach und ich hätte auch lieber OLEDs oder Mikro-LEDs.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Zurück
Oben