News Asus stellt 27-Zoll-Monitor PB278Q mit PLS-Panel vor

hase schrieb:
Naja, eigentlich sollte es mit HDMI 1.4 funktionieren. Im Handbuch steht auch, dass über HDMI die volle Auflösung unterstützt wird. Eventuell liegt es aber an deiner Grafikkarte. Welche Grafikkarte hast du denn?

HDMI habe ich nur mit meinem Notebook getestet, weil ich ehrlich gesagt zu faul war nur dafür nochmal ein Kabel unter den Schreibtisch zu hangeln und darunter herumzukrabbeln. ;)
Das Notebook hat nur eine GT335M bzw. durch Optimus in dem Fall sogar nur Intel-HD-Grafik (Arrandale). Kann also durchaus auch daran liegen.

Vielleicht reiche ich noch einen Test mit meinem Desktoprechner (mit GTX580) nach.

Und wenn der Asus nicht schlechter als die Dell IPS TFT`s ist, dann bin ich schon zufrieden :cool_alt:

Schlechter ist er nach meiner subjektiven Einschätzung definitiv nicht. Die Farben und der Kontrast gefallen mir wie gesagt sogar besser. Aber das kann natürlich auch an unterschiedlichen (Vor-)Einstellungen liegen.

Das ist auch so meine Überlegung, nur brauche ich dann wieder mehr Grafikleistung und VRAM für meine Ego-Shooter. :(

Beim VRAM habe ich Glück, weil meine GTX580 Phantom schon 3GB hat. :cool_alt:

Allerdings werden die auch mit dem neuen Monitor fast nie gebraucht. Am meisten VRAM zieht sich lustigerweise ausgerechnet Minecraft (mit HD-Texturen) rein. Das kommt leicht deutlich über 2GB. Aber dass es deshalb merklich langsamer würde, wenn man "nur" 1,5 oder auch nur 1GB VRAM hat, ist ja auch nicht unbedingt gesagt.
WoW und Skyrim z.B. krallen sich auch mit höchsten Qualitätseinstellungen eh nur etwas über 1GB.
Zu aktuellen Ego-Shootern kann ich allerdings nichts sagen.
 
Zuletzt bearbeitet:
Herdware schrieb:
Vielleicht reiche ich noch einen Test mit meinem Desktoprechner (mit GTX580) nach.

Ja, bitte bitte. :streicheln: Da ich im Moment auch noch genau die 580er hab, allerdings nur die 1,5GB-Variante. Als ich die gekauft hatte gab es noch keine 3GB und mir war auch Referenz-Design wichtig, wegen Wakü.

Herdware schrieb:
Beim VRAM habe ich Glück, weil meine GTX580 Phantom schon 3GB hat. :cool_alt:

Allerdings werden die auch mit dem neuen Monitor fast nie gebraucht. Am meisten VRAM zieht sich lustigerweise ausgerechnet Minecraft (mit HD-Texturen) rein. Das kommt leicht deutlich über 2GB. Aber dass es deshalb merklich langsamer würde, wenn man "nur" 1,5 oder auch nur 1GB VRAM hat, ist ja auch nicht unbedingt gesagt.
WoW und Skyrim z.B. krallen sich auch mit höchsten Qualitätseinstellungen eh nur etwas über 1GB.
Zu aktuellen Ego-Shootern kann ich allerdings nichts sagen.

Naja, ich habe jetzt schon auf 1920x1200 öfters mal den VRAM voll und würde mir dann gern mal eine Karte mit viel VRAM kaufen, wenn NV mal was ordenliches raus bringen würde. Die 580er kommen dann in die PC`s von meinen beiden Jungs. :cool_alt:
 
Schlechte Nachricht: Auch am HDMI-Anschluss der GTX580 geht nur max. 1920x1080. :(

Die native Auflösung scheint wirklich nur mit Displayport (habe ich jetzt auch getestet) und Dual-Link-DVI zu funktionieren.
 
Das ist ja bescheiden. Ich hatte heute morgen extra noch einmal im Handbuch gelesen, dort steht auf jeden Fall drin, dass auch über HDMI die volle Auflösung gehen soll. Damit ist der Monitor bei mir fast durch.

Aber großes Danke an dich, dass du es getestet hast.
 
Ich habe mal in Wikipedia nachgeschaut. Da steht zu dem Thema folgendes:

"HDMI und Auflösungen oberhalb von Full HD

Ab Version 1.3 ist HDMI in der Lage, Auflösungen oberhalb von 1920x1080 (HDTV 1080p60, bzw. Full HD) und 1920x1200 anzusteuern. Mit dem Aufkommen von Monitoren, die bei einer Bildschirmdiagonale von 27 Zoll (598 mm x 336 mm) Auflösungen von 2560x1440 anbieten, ist das Ansteuern dieser Monitore mit der nativen Auflösung über HDMI möglich. Sowohl neuere Grafikkarten und On-Board-Grafik-Chipsätze wie auch die Empfangsschaltkreise in den Monitoren sind dazu in der Lage.

Das bestehende Problem ist, dass die Monitore als maximale Auflösung 1920x1080 melden und die Grafikkartentreiber daher auch keine höheren Auflösungen anbieten. Werden modifizierte Windows-Treiber[13] eingesetzt oder Grafiktreiber verwendet, die frei programmierbare Videotimings (ModeLine "2560x1440@60" 241.500 2560 2608 2640 2720 1440 1443 1448 1481 +hsync -vsync) erlauben, funktioniert die Nutzung der nativen Auflösung problemlos."


Es liegt also nicht am Monitor und nicht an der Grafikkarte (meine Phantom hat laut Datenblatt HDMI 1.4a), sondern am Grafiktreiber.
Du wirst modifizierte Treiber benutzen müssen, wenn du irgendeinen >FullHD-Monitor per HDMI in voller Auflösung nutzen willst.

Gainward hat im Datenblatt der GXT580 Phantom übrigens folgendes stehen:
- Dual DVI-I, DisplayPort (support up to 2560x1600) and HDMI support

Die scheinen also dieses Treiber-Problem zu kennen und beschränken die höheren Auflösungen trotz HDMI 1.4a offiziell auf DL-DVI und DisplayPort.
 
Zuletzt bearbeitet:
Naja, ich hatte mir vor längere Zeit das bei Wikipedia auch durch gelesen.

Ich verstehe oder sehe das aber eher so, dass die Hardware (ASUS PB278Q und GTX580) die Auflösung über HDMI darstellen kann, aber ASUS müßte für den Monitor einen Treiber mitliefern, der dem Betriebssystem / der Grafikkartentreiber mitteilt, dass die 2560x1440@60 über HDMI funktionieren. Das mit dem modifizierte Treiber läut doch am Ende darauf hinaus, dass man sich eine benutzerdefinierte Auflösung im Treiber anlegt. Nicht anderst, wie beim Einrichten von Downsampling. Nur ist das schon sehr umständlich, da man das bei jedem neuen Treiber wiederholen muss. :(

Ist den nicht eine CD im Lieferumfang dabei, wo ein Treiber drauf ist? Auf der Webseite von ASUS kann man ja nur das Handbuch laden.

PS: Bei meiner EVGA GTX580 steht nur etwas über einen Mini-HDMI Conector 1.4a und nichts über die mögliche Auflösung. Ich gehe aber davon aus, dass der HDMI-Anschluss die selben Specs, wie deine Phantom hat.
 
Der Monitor hat einen Dual-Link-DVI-D-Anschluss und ein passendes DL-DVI-D-Kabel liegt bei. Also ohne die 4 analogen Kontakte, nur 24+1.

Außerdem hat er DisplayPort, HDMI, VGA und Audio-In und Audio-Out/Kopfhörer. Für alles sind passende Kabel dabei. (... Ok, ein Kopfhörer liegt nicht bei... ;) )
 
ok danke für deine antwort. meine graka hat nur einen dvi i ausgang, müsste aber dann trotzdem mit dem dvi d eingang des monitors funzen, um die native auflösung bei 60hz zurreichen nehm ich mal an.

mittlerweile glaub ich, dass der von mir bestellte tft wohl vom laster gefallenist , da er seit 2 tagen von bremen aus zu mir unterwegs sein soll.
 
Ja, das sollte passen. So wie ich das verstanden habe, passt ein DVI-D-Kabel auch in eine DVI-I-Buchse. (Nur andersrum würde nicht gehen.)
Die Grafikkarte muss für die Auflösung nur Dual-Link-DVI (24 + X Kontakte) haben und das ist wohl bei allen halbwegs aktuellen Modellen der Fall.
 
so monitor ist heute endlich eingetroffen. hab kurz csgo angespielt und hab mir paar videos angeschaut und ich kann im vergleich zu meinem alten 245b nix negatives feststellen. mit dem backlight bleeding kann ich gut leben, nur die kratzer aufm display stören mich. deshalb verhandle ich gerade über einen nachlass.

nachtrag

bin bin dem lcd sehr zufrieden und daddeln kann ich mit dem teil auch super :D

neue bilder hochgeladen
 

Anhänge

  • IMG_0145.JPG
    IMG_0145.JPG
    501,8 KB · Aufrufe: 680
  • IMG_0146.jpg
    IMG_0146.jpg
    259,5 KB · Aufrufe: 633
  • IMG_0152.jpg
    IMG_0152.jpg
    518 KB · Aufrufe: 588
  • IMG_0154.jpg
    IMG_0154.jpg
    408,2 KB · Aufrufe: 573
  • IMG_0155.jpg
    IMG_0155.jpg
    401,8 KB · Aufrufe: 562
Zuletzt bearbeitet:
Im Prinzip ja gut gemeint mit den Bildern, dafür Danke, doch was soll das bringen? Ich meine die haben eigentlich keine Aussagekraft, zumal auch noch in einem verlustbehafteteten Format. Wenn schon, dann mach es richtig. Mach z.B. ein 8MP Foto von Text in einer Makroaufnahme und schneide es so zu (nicht mit Bildgröße ändern verwechseln), daß man die Textkanten der Buchstaben gut erkennen kann. Eine entsprechende DSLR und Photoshop o.ä. vorausgesetzt natürlich. Selbstverständlich muß Du das Bild dann in einem verlustlosem Format (BMP oder PNG unkompimiert) speichern.

Sich ein Bild von der Farbwiedergabe kann man nur dann machen, wenn dein Monitor, deine Kamera und der Bildschirm des Betrachters hardwarekalibriert wären, möglichst mit dem gleichem System. Daher können Fotos nur helfen Bildschärfe, Textkontur u.ä. zu bewerten. Bunte Bilder sind aber nur bunte Bilder und in diesem Konstext sinnlos.
 
Zuletzt bearbeitet:
Immerhin kann man im ersten Bild (Star Wars-Logo) das Backlight Bleeding sehen. Besonders in der oberen rechten Ecke. Die ist auch bei meinen Exemplar die schlechteste Stelle.

Alles andere, wie Farben, Kontrast usw. kann man natürlich auf den Bildern nicht wiedergeben.

Ergänzung:
Auch beim Backlight Bleeding kann man nur einen allgemeinen Eindruck bekommen. Die Kamera nimmt es nicht unbedingt genau so auf, wie man es mit dem eigenen Augen sehen würde (Belichtungszeit/Empfindlichkeit usw.) und auch in der Realität hängt es von vielen Faktoren ab (Helligkeitseinstellung des Displays, Helligkeit im Raum usw.).
 
Zuletzt bearbeitet:
OK, ich stelle mich nicht dumm, kann aber wirklich nicht erkennen was damit gemeint ist. Selbst nach mehrmaligem Betrachten des Bildes.
 
Das Bild ist nicht über den ganzen Bildschrim gleichmäßig tief-schwarz, sondern in den Ecken mehr oder weniger grau. Das kommt daher, dass die Hintergrundbeleuchtung bei schwarzem Bild an den Ecken und Rändern durchscheint.
Das ist ein Problem, das besonders größere Monitore oft haben.

Dadurch, dass das Schwarz in diesen Stellen heller ist, leidet auch der Kontrast.

Der Dell U2713HM z.B. ist auch davon betroffen. Bei Anandtech haben sie die ungleichmäßige Beleuchtung objektiv gemessen und in Diagrammen dargestellt:

Black%20Uniformity_575px.png

http://www.anandtech.com/show/6308/dell-u2713hm-unbeatable-performance-out-of-the-box/4
 
den PB278Q hatte ich für eine woche bei mir, bevor ich den wieder retoure geschickt habe.
gestört haben mich der verkratzte bildschirm und rahmen, die fast schon extremen spaltmaße zwischen bildschirm und rahmen, und das in meinen augen etwas störende aber nicht so stark augeprägte BLB.
dafür hatte der ASUS keinen einzigen pixelfehler.
ich habe inzwischen den Samsung S27B970D, den ASUS PB278Q und den
Samsung S27A850D bei mir gehabt.
beide samsungs hatten starkes BLB und viele pixelfehler !!
der ASUS war eigentlich von den drei TFT´s der beste, wäre da nicht die schlechte verarbeitungsqualität und die beschädigungen.
jetzt erwarte ich den DELL 2711, da ich mit dem LED backlight experiment erstmal durch bin.
 
Bei meinem PB278Q ist an der Verarbeitung nichts auszusetzen und ich habe auch keine Kratzer. Da habe ich wohl Glück gehabt.

Das BLB stört mich auch nicht. Mein alter BenQ hatte das zwar nicht in der Form, dafür war das Schwarz aber insgesamt viel heller (und dadurch der Kontrast schlechter) und die Ausleuchtung über die ganze Fläche des Bildschirms war sehr ungleichmäßig ("wolkig").
Demgegenüber sind die etwas helleren Ecken beim ASUS das deutlich kleinere Übel. Von denen bemerke ich wirklich nur bei schwarzem Bildschirm etwas und auch dann nur, wenn ich bewusst darauf achte.
 
Zuletzt bearbeitet:
PSY-BORG schrieb:
jetzt erwarte ich den DELL 2711, da ich mit dem LED backlight experiment erstmal durch bin.

Könntest du mal kurz hier deine Eindrücke über den Dell 2711 im Vergleich zum Asus PB278Q hier schildern, wenn du ihn hast. Der Dell 2711 interessier mich auch sehr und wenn man so bedenkt, das eigentlich alle 27er LED-TFT das gleiche Problem mit der Ausleuchtung haben, dann schein mir der Dell 2711 als die vernüftigste Alternative.
 
Geht mir genau so, nach der sehr schlechten Erfahrung mit dem neuen Dell U2713HM tendiere ich auch wieder zum U2711. Nachteile sind der hohe Stromverbrauch, es wird bei Film/Spiel etwas langsamer sein und u.U. das IPS-Glitzern, daran kann ich mich aber glaube ich gewöhnen. Naja und das Design, wen's stört...
Mich würde ein Vergleich zu dem Asus - sofern du ihn mit dem zeitlichen Abstand wagen kannst - auch interessieren.
 
Zurück
Oben