News LG UltraGear-Monitore: UWQHD mit 144 Hz & FreeSync 2 oder 120 Hz & G-Sync

Naja wozu sollten die das auch machen? Das würde total die Preisrahmen sprengen, da man bei Vega 64 schon mehr an Netzteil braucht in Hinsicht Leistung und Qualität.

Hätte ich ne Vega 64 genommen, hätte ich mir meinem System nochmal das NT wechseln müssen.
Da ich eine 1080 Ti für 599€ erwischt habe, konnte ich mein NT behalten.
Die Mehrleistung zwischen Vega 64 und 1080 Ti noch dazu und 3GB mehr vRAM taten ihr übriges bei einem 240Hz Display.
 
  • Gefällt mir
Reaktionen: dohderbert
Ich suche seit einer 1 Woche nach einem Monitor (da mein alter immer 15min braucht bis es anspringt )
Bin hin und her gerissen, hab an die Monitore hier gedacht.

LG 32GK650F AMD FreeSync--499€
Leider gibt es diese Variante nicht als G-Sync, da kommen dann die 2 neueren Modelle:

LG 32GK850F HDR gedöns / AMD FreeSync2 --550€
LG 32GK850G G-Sync 1 ----------659€ ( auf amazon )

Leider habe ich nur eine GTX 970 .. AMD FreeSync kann ich schon mal nicht benutzt, auch wenn der ginge, wären die 50+ FPS wahrscheinlich nur mit low - mid settings möglich..
Dann habe ich mir überlegt, vllt eine AMD GPU, aber welche.. die dinge sind auch nicht grad billig, dank dem Mining Boom bis vor paar Monaten und die Leistung für den Preis ist eher schlecht :/ also P/L..

Bin fast schon am überlegen, einen 100€ Monitor zuholen und weitere 2 Jahre warten :(
 
Zuletzt bearbeitet:
Mir ging das warten jetzt echt auf die Nerven, da ja jetzt schon mindestens Dezember angekündigt ist. Hab nen X34p für 900 bei Amazon neu gekauft und nochmal 150 Euro Rabatt bekommen.
Bin zufrieden für 750 mit dem Ding
 
  • Gefällt mir
Reaktionen: dohderbert
@Nilson Da hast du wohl recht.


@GERminumus aber echt.

Tja letztendlich das gleiche Spiel wie bei den Prozessoren. Da ist es ja eigentlich teilweise noch schlimmer,
da dort die CPUs sogar besser und günstiger sind als das Intel Pendant.
 
DocWindows schrieb:
Das macht die Aussage, dass das alte G-Sync Modul nicht mehr als 100 bis 120 Hertz kann nicht richtiger.

Sorry, mein Fehler.

Ich dachte, es versteht sich von selbst, dass das in dem Zusammenhang auf diese UWQHD-Monitore bezogen war. Bei 320x240-VGA-Auflösung gehen mit dem alten G-Sync-Modul wahrscheinlich auch 4-stellige Hz-Zahlen. ;)

Es ging mir aber darum, Sorigirs Frage zu beantworten, warum G-Sync derzeit scheinbar in die schlechteren Monitore verbaut wird.
Die Antwort ist nunmal, dass das G-Sync-Modul weniger Bandbreite hat, als FreeSync2. Im Fall dieser beiden LG-UWQHD-Monitore ist das halt der Unterschied zwischen 120 und 144Hz. Das selbe gilt für neue Features wie HDR. Das alte G-Sync(1) kann derzeit einfach nicht mehr leisten.

Mit dem G-Sync 2-Modul sähe die Sache anders aus. Damit wären z.B. UWQHD-Monitore mit 200Hz und HDR möglich, wie sie schon vor über einem Jahr angekündigt wurden. Aber leider gibt es wohl massive Probleme mit dem G-Sync 2-Modul. So massiv, dass die Monitor-Hersteller jetzt gar nichts mehr damit ankündigen und statt dessen wieder "neue" Displays mit dem alten G-Sync-Modul (oder halt FreeSync) bringen.

Ich rechne nicht mehr damit, dass wir in absehbarer Zeit irgendwas interessantes mit G-Sync am Markt sehen werden.
Das führt zu der blöden Situation, dass nur Nvidia neue Grafikkarten auf den Markt bringt und es gleichzeitig nur neue Monitore gibt, die neue AMD-Karten bräuchten, um alle ihre Features nutzen zu können. :freak:

(Ja. Wie gesagt gibt es auch 1-2 UHD-Monitore mit G-Sync2, aber die zeigen leider nur um so deutlicher, wie "unfertig" das Ding noch ist.)
 
  • Gefällt mir
Reaktionen: derSafran
@Herdware Wo bekommt man überhaupt Informationen über G-Sync Module an und für sich?
Altes Module und Neues Modul zu sagen ist gut und schön, aber wo kann man da den Background nachlesen?

Ich habe über das neue G-Sync Modul bisher nur gehört dass es auf einem FPGA-Chip statt eines ASICs basiert, und damit gewisse vor- und Nachteile verbunden sind. Interessantere Dinge, wie die Frage ob man das alte G-Sync Modul nicht einfach hardwaremäßig auf DP 1.4 upgraden könnte, werden leider nirgends behandelt.
Damit könnte man zumindest die Bandbreite bereitstellen für UHD@144, wenn auch vermutlich dann ohne HDR.
 
@DocWindows
So tief stecke ich auch nicht im Thema drin und es fehlt mir ehrlich gesagt auch das Fachwissen, um die genauen Hintergründe zu verstehen/zu erklären.

Aber im Grunde ist es wahrscheinlich einfach die sich aus der weit höheren Bandbreite ergebende schiere Menge an Daten, die ein G-Sync2-Modul in Echtzeit verarbeiten muss, die es so problematisch machen. Mit so was kommt ein FPGA schnell an seine Grenzen, obwohl Nvidia wohl schon ein ausgesprochen großes und teures Model verwendet. Die Dinger sind halt nicht auf optimale Leistungsfähigkeit und günstige Massenherstellung oder auch Energieeffizienz ausgelegt, sondern auf maximale Flexibilität. Ein FPGA kann einfach per Software für jede denkbare Aufgabe komplett umprogrammiert werden, während bei einem ASIC die Funktionalität quasi fest in Silizium gegossen ist.

Deshalb verwendet man FPGAs normalerweise für Prototypen oder spezielle Geräte, von denen nur ein paar einzelne Exemplare hergestellt werden sollen, und ASICs für ausgereifte Massenware.

Die große Frage ist also, warum Nvidia trotzdem auf ein FPGA setzt. Eine mögliche Erklärung wäre, dass die zu verkaufende Stückzahl für die entsprechenden Gaming-Monitore so gering wäre, dass sich die Massenherstellung eines G-Sync2-ASIC dafür einfach nicht lohnen würde. Aber das halte ich eher für unwahrscheinlich. In allen möglichen, exotischen Geräten stecken extra dafür gefertigte ASICs, und letztlich geht es bei den FreeSync-Scalern ja auch.

Ich vermute deshalb, dass G-Sync2 einfach noch nicht fertig ist, bzw. noch nicht so funktioniert, wie es eigentlich soll, und Nvidia sich deshalb die Möglichkeit offen halten muss, die Module in den schon verkauften Monitoren jederzeit per Firmwareupdate nachträglich komplett umzustricken. Es wird in den paar erhältlichen G-Sync2-Monitoren praktisch Alpha-Hardware verkauft, die erst noch ausreifen muss.
Und das, obwohl G-Sync2 eigentlich schon seit vielen Monaten marktreif sein sollte. Irgendwas ist wahrscheinlich bei der Entwicklung furchtbar schief gelaufen.
 
janeeisklar schrieb:
Will Nvidia seine Kunden verarschen? Da kaufen sich Kunden zb eine 1080Ti und einen teuren gsync Monitor um dann 2018! mit 8Bit Farbtiefe zu daddeln? Was ist mit dem gsync "Premium Gaming" oder so geworden?
Die Limitierung auf 8 Bit ist dem Bandbreiten Limit des g-sync modules zu danken.
Die freesync version hat ja auch 10 bit und 144 Hz auf dem selben panel, g sync limitiert aber auf 8 bit und 100 Hz! daher würde ich auch mit ner nvidia karte den freesync monitor kaufen.
 
Ach, Mist! Ich warte schon seit Juni auf den Freesyncmonitor >.<
 
Artikel-Update: Es hat sich herausgestellt, dass auch der 34GK950G eine Farbtiefe von 10 Bit besitzt. Bisher war die Redaktion von 8 Bit ausgegangen, da dies bis heute auf einer Produktseite des Herstellers zu lesen ist. Doch eine andere Produktseite nennt 10 Bit, was LGs Presseagentur auf Nachfrage bestätigt hat. Die Meldung wurde entsprechend angepasst.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Die Redaktion dankt ComputerBase-Leser Markus K. für den Hinweis!
 
Also wohl das gleiche Panel, nur beim G durch das G-Sync-Modul bzw. DP1.2 auf 120 Hz beschnitten.
 
  • Gefällt mir
Reaktionen: Zockmock
Nilson schrieb:
...nur beim G durch das G-Sync-Modul bzw. DP1.2 auf 120 Hz beschnitten.

HDR könnte deswegen bei der G-Variante auch fehlen. Wobei die Frage ist, wie viel HDR400 überhaupt bringt.
 
  • Gefällt mir
Reaktionen: Zockmock und Nitschi66
Wieso braucht der Free-Sync Monitor soviel mehr Strom als der G-Sync ?
 
@Nilson Ist zwar etwas spät, aber 1V ist nicht (so weit) untervoltet. Deine Vega-GPU regelt standardmäßig die Spannung nach Last und Takt und Chipgüte selbst, die Werte die bei manuell eingetragen sind, liegen nie an und sind krasse Overshoots. Ein guter Untervolt wäre irgendwo bei 900-950 mV mit etwa der Stockleistung. Was aber für jeden ganz einfach funktioniert, ist das Stromsparbios zu wählen, das drosselt den Stromverbrauch auch, ohne viel Leistung zu kosten. Erst Recht in Verbindung mit dem ‚Strom sparen‘-Profil im WattMan oder einfach manuell -x % Powertarget.
 
drago-museweni schrieb:
Wieso braucht der Free-Sync Monitor soviel mehr Strom als der G-Sync ?

Könnte sein, dass HDR und die höhere Refreshrate zu mehr Stromverbrauch führen.

Oder es wurde einfach nur unterschiedlich gemessen. Beim G-Modell steht ja etwas von einem "EPA typ.", während beim F-Modell ein ganzer Bereich angegeben wird.
(EPA ist die amerikanische Umweltschutzbehörde. Deren Standards verwenden andere Messmethoden/Berechnungsgrundlagen und kommen vielleicht auf niedrigere "typische" Werte, als z.B. europäische Standards für Verbrauchsmessungen.)
 
  • Gefällt mir
Reaktionen: MeisterOek, drago-museweni und Fragger911
Herdware schrieb:
HDR könnte deswegen bei der G-Variante auch fehlen. Wobei die Frage ist, wie viel HDR400 überhaupt bringt.
würde mich auch mal interessieren. da man ja nicht so weit weg sitzt könnte das evtl. ja schon für die schönen Effekte reichen und verhindern dass man von einer Kerze gleich für stunden geblendet wird.

Finde es irgendwie schon bezeichnend dass der "Marktführer" im Bereich Grafikbeschleuniger mit seinem proprietären Mist wiedermal zum Blocker für bessere Technik wird.
Die Displays mit DP 1.4 und derartigen Specs kannst du an einer Hand abzählen und bei keinem steht G-Sync dran, außer diesen Abominationen mit GSync 2 welche dir dafür dann aber erst die Geldbörse leer fressen und dann ins Ohr hecheln mit ihrem Lüfter.... :grr:
Ich hoffe so dermaßen dass AMD mit der nächsten Grafikkarten-Generation ein Wurf wie mit ZEN gelingt. Oder noch darüber hinaus. Träumen darf man ja noch. Ach und gleichzeitig sollte natürlich das ganze Thema um Mining mit Grafikkarten am besten komplett den Bach runter gegangen sein.
 
Der LG 34GK950F könnte mich zu einem Update bewegen (falls der Preis stimmt, denn die UVP ist ein schlechter Scherz), solange einige Frage geklärt werden:
- hat er Lautsprecher (ich mag die in meinem 34UC88-B sehr)
- gibt es den auch in einer dezent Variante OHNE diese Farbspielereien
 
so_oder_so schrieb:
Hätte ich ne Vega 64 genommen, hätte ich mir meinem System nochmal das NT wechseln müssen.
Da ich eine 1080 Ti für 599€ erwischt habe, konnte ich mein NT behalten.


Also wenn dein Netzteil eine GTX1080Ti packt, aber mit ner Vega 64 überfordert wäre, dann nudelst du mit der Ti aber auch auf letzter Rille bzw. ziemlich am Maximum des Netzteils, was für die Lebenserwartung auch nicht so toll ist :)

Am besten ist es auch noch eine schön hoch boostende 1080Ti Custom mit OC, die im Grunde das gleiche verbraucht wie eine Vega 64. Aber man muss sagen, für 599€ ist eine Ti durchaus eine für die meisten spannendere Karte, als Vega 64, die vor einiger Zeit ja auch noch recht teuer war.
 
Zurück
Oben