News Gaming-Monitore: FreeSync ist bei AOC ab 150 Euro zu haben

zeedy schrieb:
ich finde konstante 60fps mit Vsync schon absolut angenehm und wüsste nicht, warum ich mehr Hz bräuchte.

Finde ich auch, V-Synch an und ich habe immer konstant 60fps und ist superflüssig. Ich brauche sowas nicht.
 
[F]L4SH schrieb:
Es ergibt einfach aus Sicht der Hersteller zu wenig Sinn, so viele verschiedene Modelle in allen Preissegmenten fürs Gaming für einen Hersteller zu bringen, der momentan leider mit viel zu geringen Marktanteilen im relevanten Markt aufwarten kann. Vielleicht weiß man intern schon, was kommt. Von Intel wird ja auch entsprechendes kommen.

NVIDIA hat nach wie vor 75%+ Marktanteil bei diskreten Grafikkarten.

Wer sich des Weiteren mit der günstigsten Methode zu Zocken zufrieden gibt, einer iGPU, dem sind irgendwelche Gaming-Features völlig egal. Nur ein Bruchteil dieser Leute wird mehr Geld für einen A-Sync Monitor ausgeben, selbst wenn es nur 5% Mehrkosten wären und nicht 50%+.



Des Weiteren ist G-Sync für Laptops eben nicht dasselbe wie für Desktops. Die Featureliste ist beschnitten, was am fehlenden G-Sync-Modul liegt.

Ob nun G-Sync oder A-Sync "besser" ist wird die Zukunft zeigen, im Moment ist es G-Sync (höhere Bandbreite an Hz, kein "Modden" nötig), kostet dafür aber mehr.



Gleichzeitig ist wenig verwunderlich, dass es mehr Monitore mit A-Sync gibt. Die Implementierungskosten für den Hersteller dürften extrem überschaubar sein, während bei G-Sync tatsächlich Hardware verbaut werden muss, die zusätzlich auch noch Lizenzgebühren kostet.
Das bedeutet aber nicht, dass G-Sync verschwinden wird. Es bedeutet nur, dass die Auswahl an Monitoren überschaubar bleiben wird - genau so, wie es sehr lang Zeit bei Gaming-Mäusen und -Tastaturen war und heute in anderen Segmenten nach wie vor ist.

Sicher wird NVIDIA irgendwann zusätzlich A-Sync unterstützen. An eine gleichzeitige Abkehr von G-Sync glaube ich jedoch nicht, wozu auch.
 
zeromaster schrieb:
@chithanh
http://geizhals.de/lg-electronics-34um57-p-a1279826.html?hloc=at&hloc=de "AMD FreeSync (48-60Hz)"
Ein Extrem, aber trotzdem ein gutes Beispiel.
Die Angabe bei Geizhals ist falsch, der 37UM57-P kann 48-75 Hz.

Computerbase hat es korrekt:
https://www.computerbase.de/2015-03/amd-freesync-im-praxistest/2/

Frage bleibt, gibt es einen FreeSync-Monitor, der nur 48-60 Hz kann?


Ups du hattest recht. Ich hatte den 34UM57 mit dem 34UM67 verwechselt.

Dennoch der einzige Monitor mit solch einer beschränkten Bandbreite, also kein gutes Beispiel sondern eher ein Ausreißer.
 
Zuletzt bearbeitet:
hi
Genau so sollte es sein, es wird endlich an der Zeit das sich der Display port endlich auch im Einstiegssegment durchsetzt und dvi endlich mal in rente geschickt wird. Freesync noch oben drauf astrein.
Freesync ist jetzt schon erfolgreicher und mehr vertreten als es nvidia mit gsync je sein wird.
 
Gaspedal schrieb:
Finde ich auch, V-Synch an und ich habe immer konstant 60fps und ist superflüssig. Ich brauche sowas nicht.

Mit "ich brauche sowas nicht" meinst du FreeSync? Nun, ich schon, und es ist für mich das Beste, was dem PC Gaming in den letzten Jahren passiert ist. Vsync ist gut nur wenn du immer mindestens 60fps in einem Spiel hast, dann kannst du Vsync aktivieren und ein super flüssiges Bild genießen. Aber sobald die Frames auch nur auf 55 fallen, kannst du Vsync eigentlich schon vergessen.

Daher finde ich Fsync so genial, sogar mit unter 50 fps hast du noch ein schönes angenehmes Bild und brauchst die Grafikeinstellungen nicht weiter zurückdrehen. Bei manchen Spielen, wie AC3, GTA4 oder DayZ, hast du so oder so schlechte fps, die sind so kacke programmiert, dass du als PC Spieler deine fps auch nicht mit schlechterer Grafik verbessern kannst. Mit Fsync machst du solche Spiele aber wieder spielbar.
 
Idon schrieb:
NVIDIA hat nach wie vor 75%+ Marktanteil bei diskreten Grafikkarten.

Wer sich des Weiteren mit der günstigsten Methode zu Zocken zufrieden gibt, einer iGPU, dem sind irgendwelche Gaming-Features völlig egal. Nur ein Bruchteil dieser Leute wird mehr Geld für einen A-Sync Monitor ausgeben, selbst wenn es nur 5% Mehrkosten wären und nicht 50%+.

Danke, endlich mal einer der es kapiert. :)
Freesync/Gsync ist doch eher für die Leute interessant die gerne alles auf max stellen wollen und trotzdem noch ein ruckelfreies Spielerlebnis haben wollen.
Die ganzen 0815 casual Gamer interessiert das doch nicht, notfalls wird der Schalter etwas weiter runter gedreht oder sie kaufen sich nach Jahren mal ne neue Graka...
Von daher hat das auch 0 Auswirkung, dass intel freesync unterstützen wird...
Aber selbst etwas kritisch mitzudenken und nicht sofort juhu zu schreien ist bei manchen heutzutage ja nicht mehr "in"... :(
 
iAtNeH schrieb:
Danke selten an einem Vormittag so gelacht:volllol:

Das habe ich mir auch gerade gedacht.. da will wohl wer seinen überteuerten verkrüppelten G-Sync Monitor geistig verteidigen... :p

Im übrigen sollten hier die Leute sich nicht immer über den vermeintlichen Aufpreis aufregen, das hier ist gerade mal eine Ankündigung mit einer UVP die mit dem Straßenpreis noch nie was zu tuen hatte. AOC hat Monitore ohne A-Sync im aktuellen Portofolio die technisch gleichwertig sind aber 199€ UVP haben, auf der Straße aber nur knapp über 100€ kosten. Anders wird da mit den Monitoren hier auch nicht sein.

Der Straßenpreis des 22" wird sicherlich um die 110 und des 24" bei 140 liegen, mehr ganz sicher nicht.
Ergänzung ()

Bärenmarke schrieb:
Freesync/Gsync ist doch eher für die Leute interessant die gerne alles auf max stellen wollen und trotzdem noch ein ruckelfreies Spielerlebnis haben wollen.

Völliger Quatsch, das Spielerlebnis ist ein um welten anderes und das gerade wen die eigenen Grafikkarte unter FullHD schon mit guten/mittleren Einstellungen am röcheln ist. Und da kommt so ein günstiger A-Sync Monitor genau recht, V-Sync hat gerade mit niedrigen FPS extreme Problem und kappt diese auf noch niedrigere FPS.

Ich jedenfalls wünsche mir einen Testbericht dieser Monitore, vor allem würd ich gerne die Bandbreite von Freesync/A-Sync wissen.

Im übrigen beherrschen die Maxwellgrakas schon A-sync, schließlich funktioniert G-Sync in Notebooks die über kein G-Sync Modul verfügen. Und was ist G-Synx ohne Modul, richtig A-Sync.... Ist also eh nur ein "Treiberproblem" wie beim fast allen NVidia Features.

Aber solange zu viele NV-Trottel rumrennen die bereit sind für so ein Feature 100€ extra + 50-100€ für die passende Graka extra rauszuwerfen, so lange wird NV auch so weitermachen und für nichtigkeiten eure Kohle abzocken.
 
Zuletzt bearbeitet:
für mich wäre es definitiv ein KO-Kriterium mich das nächste mal für eine Nvidia zu entscheiden wenn diese Politik beibehalten wird un der Technisch identische monitor teurer wäre, es reicht schon das die karten teurer sind als amd pendanten in der leistungsklasse.
 
tek9 schrieb:
Deine Fanbeiträge werden deinem Nick schon gerecht, viel Text aber Zero korrekter Inhalt. AMD bewerben gar nichts, die Hersteller der Displays drucken Freesync enabled auf ihre Kartons...

Und weil du ja auf unbestreitbare Fakten stehst, zähle bitte mal auf warum G-Sync so viel besser sein soll, das es es sich lohnt dafür 100 Euro Aufpreis zu zahlen?

Lustig wie die Trolle immer um die Ecke kommen, beleidigend werden und dann irgendwie immer ohne jegliche Argumente... Was ist denn nicht korrekt? Benne eine Falschaussage meinerseits. Und nein, AMD bewirbt ja nichts... ich habe für die faulen und AMD-Fanboys die AMD-Seite verlinkt und sogar den Werbespruch gepostet... willst du das abstreiten? Ist das nicht bewerben?

Und zum Thema was GSync besser kann; In der Praxis größerer Frequenzbereich, Funktioniert auch im Window-Mode Support, Notebooks mit GSync... Und ich habe nicht mal behauptet sie können es besser, ich schrieb "GSync ist FreeSync in der Umsetzung noch immer voraus".

Ob sich der Aufpreis lohnt muss jeder selber entscheiden, ich habe ja nicht mal gesagt Nvidia solle doch bitte an ihrem Standard festhalten^^ Setz deine Rote Brille ab. Eigentlich würde ich für deinen Schund und die Beleidigung eine Entschuldigung erwarten aber damit ist nicht zu rechnen.
 
chithanh schrieb:

Na ja, das kann man natürlich von der Warte aus betrachtet so sehen. Das man sich beim Kauf eines GSync-Monitors an Nvidia bindet, ist einem aber schon vor dem Kauf klar. Ebenso beim Kauf eines FreeSync-Monitors. Da ich weder das eine noch das andere habe, kann ich da natürlich keinen Vergleich ziehen welche der beiden Lösungen besser funktioniert. Aber ganz egal für welche Seite ich mich entscheide. Ich weiß vorher schon, daß ich mich erst mal an einen der Hersteller binde und das Nvidia mehr kostet in der Anschaffung.

Wenn ich mich also aus Überzeugung für NVidia und Gsync entscheide. Warum sollte ich mich dann jetzt verarscht fühlen, nur weil in naher Zukunft wohl der Großteil der Monitorhersteller eher AdaptiveSync unterstützt und somit meine bisher favorisierte Lösung eventuell obsolet wird? Ich würde mich nur dann verarscht fühlen, wenn Nvidia plötzlich keine Treiberunterstützung mehr für meinen Gsync-Monitor anbietet bei einer neuen Grafikkartengeneration. Ich hoffe du verstehst worauf ich raus will. Wenn ich von etwas überzeugt bin und den höhren Preis in kauf nehme, ist es für mich eben keine Verarsche wenn sich ein neuer Standart durchsetzt. Vor allem nicht, wenn der alte parallel dazu unterstützt wird/werden wird. Ich hab ja nach wie vor noch den Nutzen aus meinem Kauf.
 
Berserkus schrieb:
Völliger Quatsch, das Spielerlebnis ist ein um welten anderes und das gerade wen die eigenen Grafikkarte unter FullHD schon mit guten/mittleren Einstellungen am röcheln ist. Und da kommt so ein günstiger A-Sync Monitor genau recht, V-Sync hat gerade mit niedrigen FPS extreme Problem und kappt diese auf noch niedrigere FPS.

Gebe ich gerne zurück, aber scheinbar scheinst du ein ernsthaftes Lesen/Verstehen Problem zu haben...

Denn nichts anderes habe ich in meinem Post auch gesagt, jemand der gerne alles auf max stellt, jedoch nicht die entsprechend hohen fps erzielen kann profitiert von dem Feature.
Den casual Gamer interessiert dies allerdings nicht, da er nicht alles auf max spielen muss und notfalls halt mal einen Gang runterschaltet...
Daher ist meiner Ansicht nach das Feature nur für einen Gewissen Personenkreis interessant und dazu zählen mal definitiv nicht die intel igpu Gamer...
Von daher sehe ich keinen Grund wieso sich Nvidia genötigt fühlen sollte ihr Gsync aufzugeben, ich finds zwar auch nicht toll, dass jeder wieder seine eigene Suppe kocht. Aber ein Druckmittel sieht definitiv anders aus.
 
Berserkus schrieb:
Völliger Quatsch, das Spielerlebnis ist ein um welten anderes und das gerade wen die eigenen Grafikkarte unter FullHD schon mit guten/mittleren Einstellungen am röcheln ist. Und da kommt so ein günstiger A-Sync Monitor genau recht, V-Sync hat gerade mit niedrigen FPS extreme Problem und kappt diese auf noch niedrigere FPS.

Im übrigen beherrschen die Maxwellgrakas schon A-sync, schließlich funktioniert G-Sync in Notebooks die über kein G-Sync Modul verfügen. Und was ist G-Synx ohne Modul, richtig A-Sync.... Ist also eh nur ein "Treiberproblem" wie beim fast allen NVidia Features.

Aber solange zu viele NV-Trottel rumrennen die bereit sind für so ein Feature 100€ extra + 50-100€ für die passende Graka extra rauszuwerfen, so lange wird NV auch so weitermachen und für nichtigkeiten eure Kohle abzocken.


1) Glaubst du, dass deine Beleidigungen ("verkrüppelten", "Trottel") außerhalb des Pausenhofes einer Hauptschule als Argument ziehen?

2) Wer auf schlechten Einstellungen spielt, der wird ganz sicher nicht losziehen und zielgerichtet irgendwelche Gaming-Monitore kaufen. Das sind entweder Leute mit sehr wenig Geld, also kaufen sie generell das günstigste Produkt. Oder es sind Leute ohne Ahnung, also kaufen sie irgendein Produkt. Oder es sind Leute, die tatsächlich etwas mehr Geld und Ahnung haben, die kaufen sich dann aber wohl eher eine neue Grafikkarte.

3) G-Sync funktioniert bei Notebooks nur eingeschränkt, da das G-Sync-Modul fehlt.




Ich bin mir auch nicht sicher, wie ich einordnen soll, dass sich mancher hier über vermeintliche "Fehlkäufe" oder "Fails" anderer freut. Das mag aber auch dem jungen Publikum geschuldet sein, welches dann auch noch irgendeinen anonymen Konzern als "cool" empfindet.
 
zeromaster schrieb:
Begründung: GSync ist FreeSync in der Umsetzung noch immer voraus, das ist ein wohl unbestreitbarer Fakt.
Dieser Vorteil wird aber nicht mehr lange gegeben sein. Die nächste Monitor-Generation wird über Scaler verfügen, die einen ausreichend großen wenn nicht gar größeren Frequenzbereich abdecken als G-Sync. Ich hätte schon jetzt bei den Frameraten, mit denen ich spiele (zwischen 40 bis 80), keinerlei Nachteile durch FreeSync, wenn ich mich für den richtigen Monitor entscheide. In ein bis zwei Jahren wird niemand mehr über G-Sync oder FreeSync reden, weil Adaptive-Sync über kurz lang auf jedem DisplayPort 1.2 Monitor mit einem ausreichend großen Frequenzbereich frei Haus zur Verfügung stehen wird.


zeromaster schrieb:
Zudem lässt AMD sein "FreeSync"-Kleberchen auf jeden Krüppelmonitor kleben, auch die nicht wirklich Gaming tauglichen mit unterstützen Frequenzbereichen von teils 48-60Hz und solchen Müll (nicht Müll aber sicher kein Gaming-Monitor)...
Das ist ein guter Einwand. Und ein Problem, das AMD rasch lösen könnte und auch muss. Die enstprechenden Maßnahmen wurden ja bereits genannt. Andernfalls besteht auch für FreeSync auf Dauer keine Daseinsberechtigung, außer AMD möchte ein großes Marketing-Bohei darum machen, dass sie ein paar Zeilen in ihre Treiber geschrieben haben, um von Adaptive Sync Gebrauch zu machen.


zeromaster schrieb:
Übrigens, ob dann irgendwann GSync ohne Module auskommt ist dabei auch egal, sobald die Technologie auf A-Sync gleichwertig umgesetzt werden kann mit allen Features vom "alten" GSync.
Mit welchen exklusiven Features bitte? Das einzige, was G-Sync Adaptive-Sync noch voraus hat ist der zugesicherte Frequenz-Bereich, in dem G-Sync greift, und das Sync-Verhalten bei Unterschreiten des unteren Frequenz-Bereiches. Ersteres wird sich mit besseren Scalern über kurz oder lang in Rauch auflösen, und Letzteres kann AMD bzw. das VESA-Konsortium über die Treiber und den offenen Standard regeln. Falls das überhaupt sinnvoll ist, denn was G-Sync bei Unterschreiten des Frequenzbereiches macht, ist auch nicht frei von Problemen.

Ansonsten hat G-Sync nur Nachteile. Die Hersteller müssen das G-Sync-Modul für gutes Geld kaufen, was diese dazu verleitet, einzig den G-Sync-Scaler zu verbauen. Die meisten Hersteller machen sich aus Kostengründen, quasi zwei Monitore in einem Gerät zu verbauen, um auch die anderen nachwievor gängigen Video-Eingänge zu bedienen. Außerdem können die Hersteller keine eigenen Bildoptimierungs-Technologien in die Monitore einbauen, um sich von der Konkurrenz abzuheben. Denn Nvidia schreibt den Herstellern genau vor, was das G-Sync-Modul darf und was nicht.

Resultat für den Kunden: Sie erhalten einen Monitor, der nur über einen DisplayPort-Anschluss verfügt, der keine weitreichenden Bildkalibrierungen erlaubt und der nicht um Bildoptimierungs-Technologien seitens der Hersteller erweitert werden kann, weil das im G-Sync-Modul nicht vorgesehen ist. Für den durchschnittlichen "Gamer-Hannes" mag das noch ausreichend sein, aber für alle jene, die mehr Videoeingänge und mehr Kontrolle über die Bilddarstellung haben wollen oder benötigen, ist das einfach nur Murks. Und dafür zahlt der Kunde dann einen Aufschlag von 100 Euro.

Natürlich könnte Nvidia den G-Sync-Standard weiter entwickeln und den Monitor-Herstellern mehr Freiheiten einräumen. Aber was soll das bringen? Das G-Sync dem offenen VESA-Standard auf Dauer hinterher hechelt und die Kunden einen Aufschlag für eine Technologie zahlen, die sie in Zukunft in besserer Form über jeden DisplayPort 1.2-Anschluss haben können?

Wenn G-Sync und FreeSync in zwei Jahren noch existieren sollten, dann nur noch als Siegel, das Adaptive-Sync-Monitoren einen ausreichend breiten Frequenbereich für den Gaming-Einsatz bescheinigt. Und so wie FreeSync derzeit positioniert ist, werden die Monitor-Hersteller keine G-Sync-Aufkleber auf ihre Monitore kleben, sondern den Markennamen, der dem VESA-Standard nahe steht.




guenterm schrieb:
Das stimmt. FreeSync mit iGPU kann man absolut knicken!
Welche iGPU liefert konstant mehr als 60 fps bei FHD um FreeSync nutzen zu können?
1 - Adaptive Sync funktioniert zwischen 9 bis 240Hz, und auf absehbare Zeit wird es auch entsprechende Scaler geben, die diesen Frequenzbereich ausreichend breit abdecken. Es gibt schon jetzt FreeSync-Monitore, auf denen die meisten Spieler keinen entscheidenden Nachteil gegenüber G-Sync haben.

2 - Adaptive Sync ist für jeden Anwender eine sinnvolle und willkommene Technologie. Gamer profitieren lediglich besonders von dieser Technologie. In zwei Jahren werden wir uns aber über dieses Thema keine Gedanken mehr machen, weil es dann jeder neue Monitor über den DisplayPort beherrscht.

Diese AOC Monitore sind vielleicht die billigste Lösung für "Freesync" aber immer noch 50 EUR teurer als billige TN 24 Zoll FHD Monitore, denen dann nur der DP fehlt (Den man eigentlich nur bei Mehrmonitorlösungen braucht).

guenterm schrieb:
Also denselben Monitor nochmal kaufen, nur weil er "FreeSync" bietet?
Aha, also sollen wir die gleichen Monitore nochmal kaufen, nur dieses Mal mit einem Aufschlag von 100 Euro für einen Sync-Standard, der viele Bildkalibrierungen und Bildoptimierungen hardwareseitig unterbindet? Ja, macht Sinn! Aber ich kaufe doch lieber den Monitor, der bei gleicher Leistung 100 Euro günstiger ist und darüber hinaus mehr Anschlüsse und Bildoptimierungen erlaubt.

guenterm schrieb:
Es ist für flüssiges Spielen mit Nvidia G-Sync völlig ausreichend die Framerate über 30fps zu halten.
Also genau das gleiche Bild wie mit jedem besseren FreeSync-Monitor. Und mit zukünftigen Scalern wird sich der Vorteil immer weiter zu Gunsten von Adaptive Sync verschieben.


guenterm schrieb:
Bei Amd braucht man dafür 60 fps und eine dreimal teurere Grafikkarte.
Quatsch. Für 450 Euro kann ich ein Topmodell aus der R9 390X Familie haben, die den meisten Nvidia-Karten in WQHD-Auflösungen davon läuft. Eine gleichwertige Nvida GTX980 kostet 100 Euro mehr. Und dann lege ich nochmal 100 Euro für einen G-Sync-Monitor oben drauf, der weniger kann als ein gleichwertiger FreeSync-Monitor. Eine Mehrausgabe von 200 Euro, und am Ende habe ich nichts gewonnen außer einem zugebenermaßen deutlich geringeren Stromverbrauch. Gehen wir es mal schnell durch:

1 - ASUS Strix R9 390X (~450 Euro) + ASUS MG279Q (~550 Euro) = ~1000 Euro
2 - ASUS Strix GTX980 (~550 Euro) + ASUS ROG Swift PG278Q (~650 Euro) = ~1200 Euro

Beide Kombinationen sind in der WHQD-Leistung identisch, aber der ASUS MG279Q kann viel mehr als sein ROG-Bruder, hat das bessere Panel und kann mit einem kleinen Treiber-Eingriff bis auf 30 bis 32Hz (statt 35Hz) runter gehen. Dafür zieht das GTX980 unter Last über 100 Watt weniger Saft aus der Leitung. Die Nvdia-Kombo macht nur für Leute Sinn, die die FPS bis weit in den dreistelligen Bereich treiben wollen.

Und eine Gehaltstufe darunter liegen die R9 290X und die GTX970 preislich je nach Modell in der FullHD-Leistung und besonders in der WQHD-Leistung unter Strich gleichauf und bieten genug Power für Sync-Frameraten in FullHD. Auch hier gilt: Die Nvdia-Karte zieht deutlich weniger Strom, dafür ist der taugliche FreeSync-Monitor deutlich günstiger.


Bärenmarke schrieb:
Die ganzen 0815 casual Gamer interessiert das doch nicht, notfalls wird der Schalter etwas weiter runter gedreht oder sie kaufen sich nach Jahren mal ne neue Graka...
Aber auch die ganzen "Casual Gamer" vom Schlage "Was der Bauer nicht kennt, frisst er nicht!" und nicht wissen, was sie verpassen, oder nicht verstehen, was Adaptive Sync eigentlich macht, werden früher oder später in den Genuß von FreeSync bzw. Adaptive Sync kommen, denn es wird einfach eine Bestandteil des VESA-Standards werden und von Haus aus von zukünftigen Monitoren unterstützt werden. Über kurz oder lang wird "to sync or not to sync" nur noch davon abhängen, ob man ein geeignetes DisplayPort-Kabel zur Hand hat. Spätestens dann wird jeder Adaptive Sync nutzen. Nicht so jedoch bei Nvidia, wenn die nicht bald mal die Köpfe aus ihren ... na, ihr wisst schon.
 
GevatterTod schrieb:
Aber auch die ganzen "Casual Gamer" vom Schlage "Was der Bauer nicht kennt, frisst er nicht!" und nicht wissen, was sie verpassen, oder nicht verstehen, was Adaptive Sync eigentlich macht, werden früher oder später in den Genuß von FreeSync bzw. Adaptive Sync kommen, denn es wird einfach eine Bestandteil des VESA-Standards werden und von Haus aus von zukünftigen Monitoren unterstützt werden. Über kurz oder lang wird "to sync or not to sync" nur noch davon abhängen, ob man ein geeignetes DisplayPort-Kabel zur Hand hat. Spätestens dann wird jeder Adaptive Sync nutzen. Nicht so jedoch bei Nvidia, wenn die nicht bald mal die Köpfe aus ihren ... na, ihr wisst schon.

Außer die sie kaufen sich einen Gsync Monitor, weil sie ja schon immer eine Nvidia Grafikkarte hatten und deswegen auch immer eine kaufen werden ;-)

Klar profitiert jeder davon, wenn jeder Monitor von Haus aus Freesync unterstützt, aber wie bereits mehrfach erwähnt, ist für so Leute das kein Kaufkriterium. Die wollen ihre Spiele spielen und mehr nicht, ob das jetzt mit max Details oder mittleren Details läuft stört diese Fraktion nicht sonderlich ;-)
Aber du kannst ja mal den Dünnbrettbohrer aus dem andern Thread - welcher das nicht begreifen wollte - fragen, wieso Nvidia jetzt gezwungen wird umzuschwenken. Meiner Ansicht nach werden sie die Kuh noch solange melken wie es geht. Die Fanschar ist vorhanden, wieso also auch nicht. Von daher wären sie ja auch blöd, wenn sie es anders machen würden, der Kunde bezahlt es doch.
 
Wollte mir jetzt eigentlich demnächst den "LG 29UM67-P IPS / Free-Sync / 75 Hz" bestellen...
Ich hör immer das das dann erst ab 48-60 Hz funktioniert, stimmt das jetzt oder nicht?!
Ich bin nur Otto-Normal-Verbraucher und mir reichen meistens schon 30-40 FPS aus
Brauch ich jetzt extra immer neh dickere GraKa um auf 50 FPS zu zocken das Free-Sync funktioniert?!

Oder sollte man noch warten wie die Technik sich jetzt entwickelt?!
(Habe sonnst momentan keinen Monitor aber zur not tuts das Notebook noch zum warten)
 
Ich brauche nur 60 Hz zu lesen um mein Interesse verpuffen zu lassen. :D
Warum machen alle ein Hype um hohe Auflösungen, wie 2560x1600 auf 5 Zoll, aber kein Wort über 120+ Hz?
Bevor ich mir einen 30 Zoller mit 2.160p oder 4.320p kaufe, würde ich zu 1080p greifen, wenn es wenigstens 120 Hz hat.

120+ Hz > 30+" Zoll > 1080+ p > Preis > Design
 
c-mos1942 schrieb:
Wollte mir jetzt eigentlich demnächst den "LG 29UM67-P IPS / Free-Sync / 75 Hz" bestellen...
Ich hör immer das das dann erst ab 48-60 Hz funktioniert, stimmt das jetzt oder nicht?!
Ich bin nur Otto-Normal-Verbraucher und mir reichen meistens schon 30-40 FPS aus
Brauch ich jetzt extra immer neh dickere GraKa um auf 50 FPS zu zocken das Free-Sync funktioniert?!

Die FreeSync-Range hängt vom verbauten Scaler ab. Der ASUS MG279Q kann bspw. die Frequenz zwischen 35 bis 90Hz anpassen. Mit einem Eingriff in den Treiber kann der Monitor auch bis 31Hz runter gehen. Sprich, für die Frameraten die du bevorzugt wäre dieser Monitor schon sehr gut geeignet. Andere Monitore mit schlechteren Scalern schaffen derzeit nur 48-60 oder 48-75Hz.

c-mos1942 schrieb:
Oder sollte man noch warten wie die Technik sich jetzt entwickelt?!
Wenn du warten kannst, dann warte noch ein wenig - außer du sagst, dass der ASUS MG279Q für dich passt. Derzeit wäre G-Sync für dich besser, weil G-Sync bei niedrigen Frequenzen besser arbeitet als FreeSync (ansonsten hättest du aber auch viele Nachteile, die hier schon genannt wurden). Das wird sich aber mit kommenden Monitoren und zukünftigen Scalern ändern, die ein breiteres Frequenzspektrum abdecken werden.

Leider wird der Frequenbereich, in dem FreeSync aktiv ist - die sogenannte FreeSync-Range - derzeit häufig nicht angeben. Das ist ein echtes Problem für FreeSync. Du siehst ja an dieser Diskussion, dass nicht ganz klar ist, wo FreeSync aufhört und Adaptive Sync beginnt. FreeSync bezeichnet eigentlich nur die treiberseitige Implementierung von Adapative Sync. Die Monitor-Hersteller bezeichnen ihre Montore außerhalb der Kontrolle von AMD aber gerne als FreeSync-Geräte, sobald diese nur Adaptive Sync unterstützen, selbst wenn dies nur in einem schmalen Frequenzbereich der Fall ist, das für Gaming nicht zu gebrauchen ist. Blöd für die Kunden.

Daher nochmal der Rat, entweder zum ASUS MG279Q zu greifen, oder noch zu warten, bis mehr FreeSync-Monitore mit besseren Scalern und größeren Frequenzbereichen verfügbar sind (und es ggf. Usus geworden ist, die FreeSync-Range anzugeben).

Wie dem auch sein, auf jeden Fall immer in Erfahrung bringen, wie groß die FreeSync-Range ist, was manchmal leider nicht ganz einfach ist. Für dich ist besonders das untere Ende des Frequenbereichs interessant, das bis nahe an 30Hz heran reichen sollte. Zukünftige Scaler werden wahrscheinlich auch deutlich unter 30Hz kommen. Der Standard selber sieht nämlich einen Frequenzbereich von 9 bis 240hz vor. Sprich, Adaptive Sync soll langfristig den gesamten sinnvoll nutzbaren Frequenzbereich abdecken.
 
Zuletzt bearbeitet:
zeromaster schrieb:
Was ist denn nicht korrekt? Benne eine Falschaussage meinerseits. Und nein, AMD bewirbt ja nichts... ich habe für die faulen und AMD-Fanboys die AMD-Seite verlinkt und sogar den Werbespruch gepostet... willst du das abstreiten? Ist das nicht bewerben?
Ja, AMD bewirbt die Spezifikation von FreeSync. Ihrem Treiber... Richtig du Genie.

AMD bewirbt aber nicht die Produkt Spezifikation der Monitorhersteller. :rolleyes:

Lerne doch erstmal das FreeSync der Treibername ist, und Adaptive Sync der VESA Standard den AMD per FS anspricht und unterstützt. Nur weil die Monitorhersteller gezwungenermaßen mit FS werben müssen, da ja nvidia ihre proprietären Mist machen muss...


Notebooks mit GSync...
Auch genannt der Beweis das nvidia kein G-Sync Hardware Modul benötigt, da auf Adaptive Sync basierend. Also wieder einmal eine Kundenverarsche seitens nvidia. Aber hey, das kennst du ja mit der 970, die du bewusst dennoch gekauft hast. :)
 
@c-mos1942

Tip, schau dir mit Fraps oder ähnlichem deine Spiele an in Welchen Fps bereichen du mit deiner Hardware/ Einstellung landest.
Hab mir den lg34um67-p zugelegt und muss sagen mit 48-75hz kann man arbeiten.
Aber eine größere Range wie beim ASUS 35-90Hz sind Interessanter,
da wenn du diesen bereich verlässt du wieder tearing bekommst.
 
Zuletzt bearbeitet:
Zurück
Oben