News Display-Technik: Intels künftige Grafikchips unterstützen Adaptive-Sync

Da muss man einfach mal "danke amd" sagen, dass der proprietäre gsync ansatz eine gute offene Alternative erhalten hat.
Und mit intel wird es jetzt standard für alle Monitore werden. Modelle ohne freesync werden sich in 3 jahren nicht mehr verkaufen im consumer Markt.
 
akuji13 schrieb:
Wenn ich z. B. den ASUS MG278Q und den Swift vergleiche:

-ULMB und 3DVision. ;)
-Niedrigere range (30Hz vs. 40Hz). Bislang erreicht selbst mit fummeln kein FreeSync Gerät die 30Hz.
-Rein subjektiv: zusätzlich hat der Swift einen noch schmaleren Rahmen.

Wäre mir persönlich den Aufpreis wert.
Meinst du etwa das Ding mit dem TN-Panel? Den Monitor habe ich nach einem Testtag sofort zurückgeschickt. Die Bildqualität ist einfach miserabel. Kein Vergleich zum MG279Q, den ich jetzt habe i.V.m einer Fury@Fury X für 585 €.:evillol:
Im Übrigen hat der MG279Q ab Werk schon Freesync ab 35 Hz und nicht 40 Hz.
 
Zuletzt bearbeitet:
Irgendwie ja eine typische cb News, es wird herausgehoben, dass intel unumstrittener Marktführer ist, weil bei fast jeder cpu noch ne igpu mit dabei ist. Aber auf das wesentliche gehen sie nicht ein...
Und zwar, dass sie im Gaming Markt nicht zu melden haben und ihr Marktanteil da gegen 0 strebt und für wenn sind solche Monitore interessant? Richtig für Gamer...
Ich finds zwar auch doof, das Nvidia da ihre eigene Lösung pushen will, aber ich sehe jetzt nicht wo sie durch die Entscheidung intels Probleme kriegen sollten. Weil der Monitor spricht ein anderes Publikum an und die nutzen gewiss keine intel GPU.
 
Und wieso sollten solche Monitore nicht auch für entsprechende Multimedia Anwendungen interessant sein?
Oder wenn bei Intel Notebooks/Tablets etc alte Spiele gespielt werden sollen?
Der Anteil der Gelegenheitsspieler ist weitaus höher und für den Markt wichtiger als irgendwelche hoch gezüchteten Spielekisten aus IT Foren.
 
Ich wäre da vorsichtig mit dem Untergansvorhersagen von G-Sync.
Denn auch wenn die Technik 100€ mehr kostet ist sie derzeit noch besser und es gibt immer Leute die bereit sind für gewisse Dinge mehr zu zahlen und es auch können.
Daher könnte es durchaus sein das NV weiterhin G-Sync nebenbei anbietet ähnlich wie Phys-x als quasi NV Feature .


Also ich bin von allen bekannten die ich kenne der Einzige der wirklich Geld in die HArdware buttert. Der Druschnitt der mitgamer die ich kenne haben alle fx 6300er und 760er grakas oder geringer. Zocken auf Full hd oder Fernseher also ebenfalls HD. Von 1440 oder 4k weit und breit keine spur.
Aber für die Games die sie zocken WoW,Mobas,CS,Browsergames reicht das locker aus.

Und es gibt sicher auch genug die evtl nur mit igpu zocken immerhin wird die intel igpu langsam brauchbar und genau dort ist freesync wichtig, da man nie 60fps erreicht ausser man spielt auf absolutem minimum mit 720 p.

Für mich persönlich ist es natürlich unerheblich da ich nie die igpu nutzen werde primär und bei DX12 Multiadapater Rendering wird ja nur auf der igpu berechnet die ausgabe müsste doch die hauptgraka erledigen?

Für wenn es gut ist ist auf jeden Fall AMD, weil so die Verbreitung wesentlich schneller voranschreiten wird.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Und wieso sollten solche Monitore nicht auch für entsprechende Multimedia Anwendungen interessant sein?
Oder wenn bei Intel Notebooks/Tablets etc alte Spiele gespielt werden sollen?
Der Anteil der Gelegenheitsspieler ist weitaus höher und für den Markt wichtiger als irgendwelche hoch gezüchteten Spielekisten aus IT Foren.

Welcher Gelegenheitsspieler kauft sich so teure Monitore ;-)
Oder hat so hohe Anforderungen?
Und bei alten Spielen schafft selbst intel höhere fps, also ich sehe da keinen Grund wieso sich da etwas zwingend ändern sollte.
 
Bärenmarke schrieb:
Irgendwie ja eine typische cb News, [...]
Typischer CB-Forenbeitrag...

Bärenmarke schrieb:
Welcher Gelegenheitsspieler kauft sich so teure Monitore ;-)
Wer sagt denn, dass Monitore mit diesem Feature so teuer bleiben? Für neue Technologien bezahlen Early-Adopter in der Regel mehr als die, die noch zwei..drei Jahre warten. Irgendwann ist es vielleicht einfach Standard (wie ABS im KFZ).
 
JackTheRippchen schrieb:
Typischer CB-Forenbeitrag...

Deiner hat sich der Qualität des Artikels ja scheinbar angepasst...

JackTheRippchen schrieb:
Wer sagt denn, dass Monitore mit diesem Feature so teuer bleiben? Für neue Technologien bezahlen Early-Adopter in der Regel mehr als die, die noch zwei..drei Jahre warten. Irgendwann ist es vielleicht einfach Standard (wie ABS im KFZ).

Ich wiederhole mich gerne, welchen Nutzen soll der 0815 User daraus ziehen, der mit einer intel igpu spielt? Wenn da mal was nicht läuft wird halt die Einstellungen eins runtergedreht... Das Feature ist meiner Ansicht nach eher was für spieler die den Regler möglichst weit nach rechts schieben wollen.
Aber du kannst mich mit vernünftigen Argumenten gerne überzeugen :)
 
Schon meine Beiträge #68 und besonders #54 gelesen?
 
Das schaut doch gut aus. Dann kommen zukünftig mehr Monitore mit Free-Sync auf dem Markt, und die Auswahl wird endlich mal gescheit. Derzeit muss man oft Kompromisse eingehen, oder Preise zahlen die es nicht wert sind.
 
JackTheRippchen schrieb:
Schon meine Beiträge #68 und besonders #54 gelesen?

Jetzt ja, aber ich sehe da keine Antwort auf meine Frage.... Für die meisten Casualgames brauchst halt keine 60 fps und wenn bei denen was net entsprechend läuft drehen die sofort die Regler runter. Zudem wäre für solche Leute auch eine APU von AMD die bessere Wahl ;-)

Daher sehe ich keinen Grund wieso sich Nvidia jetzt in die Ecke getrieben sehen sollte.
 
Seit wann haben Casualgames großartig Regler?
Beispielsweise reicht für League of Legends eine iGPU von Intel, je nach Auflösung und Details sind auch 60 fps möglich. In Teamfights geht die Framerate dann schonmal kurz etwas runter. Für solche Spiele würde sich die Technik anbieten.

Und wenn man nicht auf der iGPU spielt, so scheint es dennoch für "Gamer" wichtig zu sein (Optimus/Enduro-Kompatibilität).
 
NV braucht sich auch nicht in die Ecke gedrängt zu fühlen. Aber kaum ein Monitorhersteller wird noch G-Sync mit Hochwertigen Panels produzieren, weil die Nachfrage einfach nicht gegeben ist. Ich hoffe auch ein wenig auf die Werbung von INTEL für Adaptive Sync/Freesync, dann ist auch die miserable oder nicht vorhandene Marketingabteilung von AMD nicht mehr so schlimm.:evillol:
ATM gibts doch G-Sync eh fast nur mit den gamligen TN-Panels. Und dabei wird es wohl auch bleiben.
 
Bärenmarke schrieb:
welchen Nutzen soll der 0815 User daraus ziehen, der mit einer intel igpu spielt?
"Kein Tearing mehr" ist sicher auch einem 0815 Intel-User unmittelbar einsichtig.

Da Adaptive-Sync keine Zusatzkosten verursacht (dies wurde explizit von Peter Nixeus bestätigt) wird es früher oder später in quasi alle Monitore Einzug halten.
 
MichiSauer schrieb:
http://www.planet3dnow.de/vbulletin...Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync
Hier ist det passende link, hito.
Nvidia nutzt für gsync den async standard.
Das betreiben von nvidia dir vorzugaukeln, dass gsync nur mit modul funktioniert ist somit unfug.
Und das amd gsync kann wurde von mir nie behauptet, nur das gsync ein schwindel ist, indem der chip in dem modul nur einen recode enthält, der dem treiber sagt: ich darf gsync


und jetzt lies genauer rein. dies geschieht aktuell nur bei mobilen Lösungen die von Haus aus den mobielen displayport mitbringen, der sychronisieren kann anstatt nur daten weiterzugeben.

a) Deswegen kann eine AMD-Karte einen G-Sync SCALER trotzdem nicht ansprechen.
Was ist ein GsyncScaler? Das ist die Hardware die die Bilder synchronisiert wenn der DESKTOP-Monitor nur Displayport 1.2 mitbringt. Also so ziemlich jeder Monitor, außer eben den FreeSyncies.

oder einfacher ausgedrückt: hat ein display nicht displayport1.2 muss ein gsync scaler eingebaut, FreeSync geht gar nicht.


So viel zu den Fakten.



@akuji13:
du vergleicht Monitore mit unterschiedlichen Eigenschaften. gz
 
Zuletzt bearbeitet:
Hito, zweiten absatz lesen:
Soll für alle grafikkarten von 6xx bis 9xx inklusive mobiler ableger funktionieren.
Im thread selbst versuchts dann einer mit ner 980 und einem freesync monitor, siehe es funktioniert.
Sogar die framerates sind gleich...
Also is der scaler im treiber und nicht im monitor.

Aber manch einer will halt affchen nachmachen:
Nichts hören, nichts sehen, nichts sagen

Das gsync modul ist ausschlieslich eine drm abfrage, mehr nicht.
Gsync funktioniert auf allen dp1.2 monitoren nach 2010 auch ihne das Modul, wenn man denn die abfrage umgeht.
Nur war man bei nvidia zu schnell mit dem schuss, oder hat nich mit dem querschlager async gerechnet.
Die idee hatte übrigens (trommelwirbel) amd und zwar schon zu zeiten der hd5er
Damals war nur die bandbreite und Rückmeldung über dvi zu kompliziert.

Und genau darum geht es eigentlich:
Nvidia kann async, nutzt den gleichen weg, verlangt aber für die Möglichkeit mehr geld.
Das freesync momentan bei 48hz schluss macht is für mich nich weiter tragisch, denn die grenze ist treibergebunden, kein hardwreproblem.
Wieso amd das mach kann man in den stellungnahmen wunderbar nachlesen.
 
Zuletzt bearbeitet:
@Hito
Der Grund warum AMD FreeSync keine G-Sync-Monitore unterstützt ist dass es sich um eine proprietäre NVidia-only Technologie handelt, die nur zu sich selbst kompatibel ist.

Dass NVidia bei den mobilen Lösungen Adaptive-Sync unterstützt zeigt doch nur, dass sie es prinzipiell auch auf Desktop-GPUs könnten. Sie wollen es aber nicht, zumindest nicht aktuell. Zum Nachteil der Verbraucher, die dadurch eine geringere Auswahl haben und höhere Preise zahlen müssen.

@MichiSauer
Treiber- und Hardwareseitig ist FreeSync bis 9 Hz möglich. Die aktuellen Panels können das aber nicht, auch wenn die Monitorhersteller die untere Grenze etwas übervorsichtig gesetzt haben. Der Nixeus NX-VUE24A ist momentan das Gerät mit dem größten variable-refresh-Bereich (30-144 Hz).
 
Dann hoff ich doch mal, dass Nvidia mit Pascal auch Adaptive-Sync unterstützt.
Dann können die Monitor-Hersteller sich auch nur auf eine Technik konzentrieren(ohne G-sync).

Ich fänd's jedenfalls doof mir einen Monitor mit G-sync zu holen.
Hätte aber evtl. nix gegen ne Pascal Karte nächstes Jahr.

Wenn Nvidia aber nur bei G-sync bleibt, sitz' ich in der Zwickmühle. Dann wird mir AMD wieder einmal sympathischer.
 
Ich werde mir erst einen Monitor mit VRR kaufen, wenn ein Standard sich durchgesetzt hat, ich habe keinen Bock mich mit einen Monitor von einen Hersteller abhängig zu machen. Und sollte sich in den nächsten 5 Jahren immer noch keiner durchgesetzt haben, kaufe ich halt einen Monitor ohne VRR. :p
 
Zurück
Oben