News LG bringt 34-Zoll-Monitor mit 21:9 und FreeSync

Kann mir endlich jmd. erklären warum Displays mit Auflösungen jenseits von Full HD immernoch so unaussprechlich teuer sind?
Und man gleichzeitig Displays in Handys in 5" und kleiner mit zum Teil höheren Auflösungen mit handy billiger bekommt?

Ist es alles nur das zusammenspiel aus Angebot und Nachfrage oder gibt es tatsächlich einen Grund den ich hier übersehe?

Für mich völlig unverständlich und aus meiner Sicht nicht einzusehen für ein solchen Monitor Preise jenseits der 400 euro Marke zu zahlen.
 
Es macht,denke ich mal,einen Unterschied,ob du eine 2560er Auflösung für ein 5 Zoll Panel oder für ein >=24 Zoll Panel konzipierst.
 
Weil es schlicht einfacher ist ein fehlerfreies 5" Panel zu fertigen als ein 34"?
Und warum sollten die Hersteller ihre großen Panels zu Spottpreisen raushauen?
Die Hersteller sind gewinnorientierte Unternehmen und nicht die Wohlfahrt.

Ich frage mich wirklich. Was meinen denn manche was früher gute CRT Monitore gekostet haben? Kann Beitrag #21 leider nur beipflichten.
 
Genau das fiel mir auch als erstes auf... :D

Edit: Zitieren auf dem Handy klappt ja noch nicht ganz so perfekt... Ich meinte aucj das übergroße HUD auf dem Monitor :)
 
coolmodi schrieb:
Wie sich dieser Schwachsinn so hartnäckig hält versteh ich echt nicht. Das Auge sieht auch weit mehr als 120fps, vermutlich sieht man auch einen Unterschied von 500 auf 1000. Selbst auf dem Desktop ist der Unterschied von 60hz zu 120hz wie Tag und Nacht, wer das nicht sehen kann hat einfach extrem schlechte Augen, bzw. muss der Bereich für die Verarbeitung im Gehirn leicht zurückgeblieben sein :freak:

Wie kann man nur so Müll in Foren verbreiten und sich dabei nicht blöd vorkommen?

Edit: Und klar sieht man nicht jedes einzele Frame als eigenständiges Bild, aber speziell bei schnellen Bewegungen hätte das Gehirn gerne mehr Bilder, dann sieht alles gleich viel flüssiger aus, und vor allem kann man mehr erkennen. Mit Tearing hat das absolut nichts zu tun.

Was ist denn mit dir los? Jetzt sind schon Leute, denen der wirklich eher unscheinbare Unterschied vielleicht einfach völlig egal ist, leicht zurück geblieben? Dieser Nerdrage ist ziemlich stellvertretend für so ziemlich jede Nvidia vs. AMD, 4k, 21:9, mechanische Tastatur, fastpath und weiß der Geier für Diskussionen. Tellerrand und so? Mir war beim Monitorkauf ziemlich schnurz, ob ich nun beim wirbeln mit der Kamera einen Unterschied erkenne oder nicht. Dafür kann ich jetzt mit dem 21:9 1440p Monitor fast doppelt soviele Seiten anzeigen als mit meinen alten Monitor und muss nicht immer zwischen den Dokumenten hin und her tabben. Außerdem erkennt wohl kaum einer bei RTS und Dota 2 einen Unterschied bei 60hz zu 120hz.

Zum topic: 1080p und freesync ist jetzt nicht so der bringer. Besser wäre ein Modell mit 1440p, wer soviel Geld in den Monitor steckt hat wohl auch das Geld für potente Hardware übrig.
 
Computerbase schrieb:
Die technischen Grunddaten des LG 34UM67 sind bisher völlig unklar. Von der Nomenklatur müsste die Auflösung ähnlich des bereits ab 465 Euro lieferbaren 34-Zoll-Modell 34UM65 liegen, bei 2.560 × 1.080 Bildpunkten.

Gehe auch mal davon aus, dass die kaum einen 34um67 mit 1440p rausbringen.
 
derNils schrieb:
Was ist denn mit dir los? Jetzt sind schon Leute, denen der wirklich eher unscheinbare Unterschied vielleicht einfach völlig egal ist, leicht zurück geblieben? Dieser Nerdrage [...]

Also wirklich, les bitte erstmal worauf ich geantwortet habe! Wer den Unterschied nicht sieht und ihn verleugnet (NICHT WEM ER EGAL IST) hat nunmal einen Augen oder Hirnfehler.

Zitat:"und jetzt soll mir bitte keiner kommen, dessen Auge angeblich mehr als 60 komplexe Einzelbilder pro Sekunde wahrnehmen kann..."

Aber ich bin mir sicher die Leute (wie der auf den ich geantwortet habe) haben schlicht noch nie was über 60hz, oder eben 24hz wenns mal wieder um Filme geht, gesehen, und was man nicht gesehen hat das gibt es auch nicht, stimmts? :rolleyes:

Das ist kein Nerdrage, aber Leute die so Schwachsinn immer und immer wieder verbreiten neven einfach.
 
Zuletzt bearbeitet:
derNils schrieb:
Gehe auch mal davon aus, dass die kaum einen 34um67 mit 1440p rausbringen.

Dann frage ich mich aber, warum genau der Freesync bekommt. Auflösungen knapp über FHD kann man einfach mit ner stärkeren Grafikkarte erschlagen, dann stimmen die FPS auch. Aber bei 3440x1440 schaut das anders aus, das sind gleich 2,5x soviele Pixel wie FHD. Und genau da macht doch Freesync richtig Sinn, wenns nämlich Situationen gibt, in denen die Framerate einbricht, dann möchte ich das Bild "sofort" und nicht erst beim nächsten regulären Refresh sehen, oder mit Tearing, oder wer weiß was. Offenbar zuviel verlangt, verfügbare Technologie mal da einzusetzen, wo sie sinnvoll ist. Hat schon jemand gesagt, schön Melken, manches Depperle kauft dann halt doppelt oder dreifach, bis endlich das eigentlich gewünschte Produkt zu haben ist.

...aber nen Monitor für etliche Hundert € mit diesem Körperklaus-Standfuß werd ICH mir eh nicht zulegen. Andere Hersteller kriegen bei den 34" 21:9 sogar Pivot hin (=80 cm Monitorhöhe!), und LG bietet zwei kaum unterschiedliche Höheneinstellungen an, die man per Schraubenzieher wechseln kann? Lächerlich.
 
Was ich persönlich richtig beschissen finde, ist die Tatsache, dass hier mal wieder zwei Inkompatible Strandards miteinander Konkurrieren. Im gegensatz zu Bluray und HDDVD wird es aber nicht so sein, dass eine Seite irgendwann aufgegeben wird, sondern beide Hersteller werden bis zum Erbrechen an Ihrer Technologie festhalten und man muss sich dann mit dem Monitor auf ein Produkt festlegen und das andere wird einfach nicht unterstützt.

Brauche ich eine neue Grafikkarte, dann muss ich bei dem selben Hersteller bleiben, oder ich muss mir auch gleich einen neuen Monitor zulegen.
So sieht also heute der technische Fortschritt aus!

Einfach zum Kotzen.:kotz::kotz::kotz:
 
Seppuku schrieb:
Soll nicht FreeSync z.B. das Tearing sowieso schon verbessern? Wozu dann noch mehr als 60 Hz?
(und jetzt soll mir bitte keiner kommen, dessen Auge angeblich mehr als 60 komplexe Einzelbilder pro Sekunde wahrnehmen kann...)

Wie schnell oder wie viel ein Mensch sieht liegt tatsächlich an jedem Menschen. Ein Rennfahrer, Sportler oder ein Kämpfer, egal ob Boxen, Kung-Fu oder sonstiges MMA sieht viel mehr und kann viel schneller reagieren als Otto normal. Wenn jetzt ein movement Günter sagt 25 – 60 Bilder reicht mehr sieht man sowieso nicht kann man das nicht pauschalisieren, es liegt dann tatsächlich am untrainiertem Sehorgan.

Tatsächlich merkt man den unterschied bei 120/144fps allein schon bei der Bedienung der Maus, man wird mit butterweichem aiming belohnt, selbes zählt für Autorennen. Ist ja auch logisch da es ja Mathematisch ausrechnen kannst wie-viel Bilder du siehst.

Dreh dich 180° Baller ein ab mit gleichzeitigem ausweichen und anschließendem 90° drehen mit einem Hechtsprung nach vorn um in Deckung zu gehen. Das Szenario dauert 5 sek.

Der Movement Günter 25fps siehst 125 Bilder in 5sek Bilder
Der Otto Normal 60fps 300 Bilder in 5sek Bilder
Der FPS Verschwörungstheoretiker 144fps 720 Bilder in 5 Sek.

Der Movement Günter stirbt 100% außer er landet ein luck Treffer mit einer shotgun auf nächster nähe.
Der Otto normal beschimpft den 144fps Verschwörungstheoretiker als Cheater und der 144hz Spieler lacht sich ins Fäustchen.

Es kommt noch dazu das die Latenz für den Bildaufbau von ca. 19ms bei 60hz pro Bild halbiert wird bei 120hz oder mehr.

Pauschal kann man sagen mehr Hz = besseres Aiming = niedrigere Latenz = bessere Reaktion. Daran kann man nichts rütteln, auch wenn IPS Bildschirme um Lichtjahre besser aussehen.

Das G-Sync / Freesync beseitigt nur Tearing und verkürzt die latenz durch optimierte abfrage des Monitors. Spielregeln bleiben gleich.
 
Sehr schön! Sogar das Design geht mal halbwegs in Ordnung.
Jetzt noch "Curved" und mit Ergonomiefunktionen und das Ding ist gekauft (Sobald das nächste Monitor-Upgrade ansteht).
 
M.T.Nut schrieb:
Im gegensatz zu Bluray und HDDVD wird es aber nicht so sein, dass eine Seite irgendwann aufgegeben wird, sondern beide Hersteller werden bis zum Erbrechen an Ihrer Technologie festhalten und man muss sich dann mit dem Monitor auf ein Produkt festlegen und das andere wird einfach nicht unterstützt.

Meinste? Sobald Intel auf den Zug aufspringt und eine Seite damit massiv Unterstützung erfahren wird (welche das wohl sein wird...), wird die andere ein Problem haben. Oder, was ich aber erst später erwarte, wenn Adaptive Sync von "kann" auf "muss" für eine künftige Displayport-Version geändert wird, muss ebenfalls Unterstützung her.

Vielleicht nen sies dann G-Sync "light" und kommt mit Bugs und Performancebremsen weil man keine Extrakröten für das Original ausgegeben hat, aber ein Monitor mit Adaptive Sync wird mittelfristig von allen drei Herstellern unterstützt werden. G-Sync-Monitore nur von einem, selbst wenn die anderen so nett wären und das machen würden/wollten (ohne monetär was davon zu haben). Es ist halt proprietärer Mist...

---
Wie sieht das eigentlich bei HDMI aus, das ist doch im TV-Bereich überall vorhanden, und dort gibts Material mit 24fps, den amerikanisch-krummen 23,976, 25, 30, 48, 50, 60, und vielleicht noch weiteren Wiederholraten. Dort wäre die Wiedergabe mit exakt jenen Frequenzen doch wünschenswert, geht das schon mit heutigem HDMI? Wenn nein, wäre auch dort eine Minimalversion von Adaptive Sync angebracht. Während der Wiedergabe eines Mediums kann die Frequenz ja statisch bleiben, aber beim Umschalten auf eine andere Quelle oder dem Wechsel auf Zusatzmaterial muss ggf. angepasst werden.
 
M.T.Nut schrieb:
Brauche ich eine neue Grafikkarte, dann muss ich bei dem selben Hersteller bleiben, oder ich muss mir auch gleich einen neuen Monitor zulegen.
So sieht also heute der technische Fortschritt aus!

So siehts zwar tatsächlich aus, aber schmeiss das doch bitte nVidia vor, und nicht AMD. AMD hat den offenen Standard (!) entwickelt, nur nVidia hält wie immer am proprietären Müll fest, den sie auch nicht zur Lizensierung frei geben. (AMD würde höchstwahrscheinlich beides anbieten, wenn sie dürften.)
 
Ohne G-Sync/ FreeSync frägt der Monitor die Grafikkarte ob es ein neues Bild gibt zum Anzeigen.
Mit Gsync/FreeSync sagt die Grafikkarte den Monitor junge, da gibts ein neues Bild zeig das mal an.
Hz zahl gibt es Pauschal nicht, es wird nur soviel hz angezeigt wie die Grafikkarte Bilder berechnen kann, darum gibt es kein Tearing mehr und die latenzen werden zwischen Grafikkarte und Monitor werden verkürzt.
 
Falcon schrieb:
So siehts zwar tatsächlich aus, aber schmeiss das doch bitte nVidia vor, und nicht AMD. AMD hat den offenen Standard (!) entwickelt, nur nVidia hält wie immer am proprietären Müll fest, den sie auch nicht zur Lizensierung frei geben. (AMD würde höchstwahrscheinlich beides anbieten, wenn sie dürften.)

Da hast Du natürlich Recht. Ich Kritisiere auch nicht das hier Vorgestellte Produkt, sondern die allgemeine Entwicklung auf dem Computermarkt.
Irgendwie ist es ja leider so geworden, dass immer derjenige die Oberhand gewinnt, der die Restriktivste Schine fährt und/oder die Schmutzigsten Tricks Anwendet.

So wird guter Wettbewerb verhindert und der Kunde ist am Ende der Leidtragende.
 
TheDarkness schrieb:
Mit 4 DP Kabeln natürlich. (Gab es nicht mal einen Profi Monitor vor zig Jahren der 4 Kabel nutzte?)
Volker schrieb:
4 Kabel? Auch wenn das theoretisch irgendwie möglich wäre, wird sich so einen Klotz niemand ans Bein binden. Kein Hersteller baut am Ende ein Produkt, was nur 2 Leute als Zielgruppe hat.
Doch, sowas gab es mal:
http://en.wikipedia.org/wiki/IBM_T220/T221_LCD_monitors

Volker schrieb:
Der Preis würde dann ebenfalls astronomisch sein.
Das war er in der Tat.
 
M.T.Nut schrieb:
Was ich persönlich richtig beschissen finde, ist die Tatsache, dass hier mal wieder zwei Inkompatible Strandards miteinander Konkurrieren.

Falsch!!! Das eine IST ein Standard und das andere wäre gerne Standard geworden :D
 
21:9 ja, aber nicht unter 40", da fehlt einfach zu viel an Höhe.
 
Zurück
Oben