News 2.160p statt 1.440p: Wenn im WQHD‑Bildschirm ein UHD‑Panel steckt

Kasjopaja schrieb:
Das heißt im Umkehrschluss für mich, das 4K Monitore durchaus günstiger zu verkaufen wären als sie es jetzt sind. Stattdessen wird die Auflösung künstlich beschnitten, und dann billiger verkauft. UHD wird also Künstlich teuer gehalten. Aber gut, so funktioniert das halt nunmal... Die sind ja auch nicht von der Wohlfahrt,

Ich würde mal behaupten, würden 144 hzw wqhd ips/va Monitore für den Endverbraucher gut 300 € kosten, dass die Hersteller noch immer nicht pleite machen würden, vor allem wenn man sich mal anschaut was Acer und co. so für ein Panel bei AUO im Einkauf zahlen.
 
Da magst du sicherlich recht haben. Deshalb warte ich gerne immer länger, bis der markt gesättigt ist. Dann fallen die Preise oder erreichten zumindest ein Normales Niveau. Wenn ich mir angucke das n acer predator killer wasweisich fast 1000 Euro kostet..... nene für nen Bildschirm alleine sicher nich ^^. Aber evtl sind meine Ansprüche auch nicht so hoch. Ich hab viel Geduld und aus dem Alter, immer das neuste und beste haben zu müssen bin ich gott seis gedankt raus.
 
Ultra-High-Definition-Displays (UHD) mit einer Auflösung von 3.840 × 2.160 Bildpunkten, fälschlicherweise auch häufig als „4K“ bezeichnet
Steckt euch dafür mal nen imaginären Sticker auf die Stirn, oder stellt euch ein Like vor^^
Von mir gibt es immer eine positive Resonanz, bzw Zuspruch wenn jemand wirklich weiß, wie welche Auflösung zu bezeichnen ist. z.B. dass 3840x2160 kein "richtiges" 4k ist, oder dass 2560x1440 nichts mit 2k zu tun hat.
 
  • Gefällt mir
Reaktionen: Dark-Silent
Kasjopaja schrieb:
Das heißt im Umkehrschluss für mich, das 4K Monitore durchaus günstiger zu verkaufen wären als sie es jetzt sind. […]UHD wird also Künstlich teuer gehalten.
Wo steht, dass die WQHD-Modelle preisgünstiger sind als equivalente UHD-Modelle?

Die Angaben sind tatsächlich relativ dürftig. Ich würde eher vermuten, dass es sich dort um Modelle handelt, die eher Exoten sind...32"+ bei WQHD, auch wenn die Quelle explizit 27" nennt. Bei 27" auf WQHD zu verzichten wäre besonders Unsinnig. Klar kann man über das Betriebssystem skalieren, aber es macht genau hier Sinn WQHD zu nutzen.
Ansonsten frage ich mich, wie schlecht sich prad hier gibt. Entweder sie wissen genaueres, dann sollten sie es schreiben, um als unabhängige Informationsquelle ernst genommen zu werden. Wie reine Spekulation ist der Artikel nicht formuliert.


BTW.:
GH. führt kein einziges Modell...
https://geizhals.de/?cat=monlcd19wi..._27~11940_28~11942_2560x1440&pg=5#productlist

Ich weiss allerdings nicht, ob die Hersteller die Infos rausgeben, oder ob GH die Daten errechnet.....
 
sweber schrieb:
Bei dieser Skalierung werden ja nicht "Pixel aufgeblasen", so wie beim Vergrößern eines JPEGs, sodass das Ergebnis pixelig würde.

Doch, das wird noch sehr oft so gemacht.

@Topic
Ich würde bei der Arbeit jederzeit einen 1440p einem UHD bevorzugen, bei der üblichen Skalierung (2x) bietet ein 1440p Display deutlich mehr Arbeitsfläche. Es wäre natürlich schön ein 2880p Display kaufen zu können (wie beim iMac).
 
@mace1978
Davon gehe ich einfach mal aus.
@Darkseth88
Das wirste aber aus den Köpfen nicht mehr rausbekommen ;)
 
@Kasjopaja Ich weiß...^^ Aber die hoffnung stirbt zuletzt... :D
Und ein wenig haarspalterei muss ja auch immer mal wieder sein

(dass Asus ihre 2560x1440 Monitore als "2k" vermarktet auf der Homepage hilft dabei nicht wirklich.......)
 
Macht das nicht irgendwie jeder Hersteller? Auf meinem Laptop is auch n fettes 4K logo ;D
 
leon482 schrieb:
Ich kaufe mir nie wieder einen 4K UHD Mointor , Notebook mit einem Matten Display.

Ein glänzendes Display punktet durch eine Brilliante Darstellung und Schärfe. wie meine OLED TV,s

Achso.
 
  • Gefällt mir
Reaktionen: jubey
Jetzt interessiert mich, wie dann bei nicht-ganzzahligen Vielfachen überhaupt skaliert wird. Gute Algorithmen brauchen afaik viel Rechenleistung. Ich glaube nicht, dass diese Monitore sich das leisten können - sollen ja nicht übermäßig Strom verbrauchen. Ich bezweifle mal stark, dass das Ergebnis besonders gut ist.
Ich hab hier im Forum auch schon Leute gesehen, die finden den Schärfeverlust durch matte Displayfolien schon schrecklich. Wie soll das dann erst bei einem Monitor aussehen, der permanent interpolierte Bilder anzeigt?

Eigentlich ist das doch sogar Verkauf unter Vortäuschung falscher Tatsachen und damit ein Strafbestand, oder?
 
Matthew Sobol schrieb:
"Wide-Quad-High-Auflösung (WQHD, auch QHD)"
WQHD steht für "wide quad high definition"... oder ?
Hier stand Quark!
Du hast natürlich recht.
Blood011 schrieb:
WQHD Monitore kosten heut doch nix mehr es sei denne man möchte den ganzen schnickschnack mit haben HDR etc. aber sonst..
Huh? Hab‘ ich was verpasst?
Ich glaube dass kommt drauf an was man unter brauchbar versteht.
Das günstigste auf Geizhals sind 350 EUR für einen ACER . Und ohne Testbericht würde ich den nicht nehmen wollen.
Und EIZOs sind dort erst gar nicht gelistet.
TN und GLARE gehen zb gar nicht.
TN Farben sind nach wie vor meist ungeeignet für Farbarbeiten und Glare ist eine Ergonomische Katastrophe.
Nahhh, am Monitor sollte man nicht sparen.
 
Zuletzt bearbeitet:
leon482 schrieb:
Das ist der einzige Nachteil, glänzende Panel,s sorgen aber für eine einzigartige Schärfe,
das musst du zuerst erleben. Warum macht Apple ihre Panels glänzend ?
Weil es knackiger wirkt aber nicht knackiger ist. Wenn es ernst wird kommt auch an den Mac ein ordentlicher matter Profischirm.

Was das Thema angeht so sieht das spätestens bei Schrift jeder Laie. Andererseits wenn der Vergleich fehlt...
ganz schön daneben jedenfalls
 
Das einzige was ein Glänzender Bildschirm anders hat ist der evtl. bessere Kontrast der damit erzielt wird. Das Bild wird zu 100% nicht schärfer weil bei ein und dem selben paneltyp ne plastikscheibe davor hängt. Rein vom Optischen Kontrast her wirken die Glare Displays wie Jubey schon schreibt knackiger. Technisch gesehen sind die aber Identisch, seis von Auflösung, dpi/ppi bei gleicher größe, Farben und Kontrast.

N Matter Bildschirm lässt eben weniger Außeneinwirkung zu, weshalb der im Profisegment eben das sagen hat.
 
Dark-Silent schrieb:
Da die 4 fache Pixelmenge gegenüber FHD vorhanden ist

Der Artikel nennt 3.840 × 2.160 Pixel für das verbaute Display, das sind 8,2 Mpixel
Der Artikel nennt 2.560 × 1.440 Pixel als gefakte Auflösung des Display, das sind 3,6 Mpixel.

Magst Du Deine Aussage nochmal überdenken?
 
Ich denke nicht, dass das Problem gravierend sein wird, wenn die Ansteuerung ordentlich gelöst wurde.
In horizontaler Richtung hat ein UHD-Panel 11.520 Subpixel, das macht 4,5 pro QHD-"Pixel". Damit kann man denke ich gut arbeiten.

Vertikal gibt es mit 1:1,5 Pixel ebenfalls ein einfaches Verhältnis.
 
Hayda Ministral schrieb:
Der Artikel nennt 3.840 × 2.160 Pixel für das verbaute Display, das sind 8,2 Mpixel
Der Artikel nennt 2.560 × 1.440 Pixel als gefakte Auflösung des Display, das sind 3,6 Mpixel.

Magst Du Deine Aussage nochmal überdenken?

Nein weil UHD zu FHD die vierfache Menge ist und meine Aussage darauf bezogen war .Möchtest du deine nicht auf meinen kontext bezogene Aussage nochmal überdenken ?
 
Beitrag schrieb:
Jetzt interessiert mich, wie dann bei nicht-ganzzahligen Vielfachen überhaupt skaliert wird. Gute Algorithmen brauchen afaik viel Rechenleistung.

Gute Scaler gibts schon seit einigen Generationen HD-TV. Die erste Generation hat SD noch bis zur Kotzgrenze zermatscht, mittlerweile muss ein Ungeübter schon gezielt hinsehen um im Blindtest eine gut gemachte DVD als SD zu erkennen und von einem HD-Bild zu unterscheiden. Die verfügbare Rechenleistung ist tatsächlich in den letzten 20 Jahren explodiert, dass ist einer der Bereiche wo wir profitieren ohne es zu bemerken.
 
Zurück
Oben