News Acer kombiniert erstmals IPS mit 144 Hz und G-Sync

Endlich tut sich mal was im Bereich der Monitore, klingt sehr interessant.
Ich hoffe nur das dann auch andere Hersteller nachziehen und eventuell 4K oder 3D Modelle anbieten werden, Konkurrenz belebt das Geschäft.
 
Zeit wird es ja mal.
Jetzt müsste so ein Monitor nur noch von NEC oder EIZO am besten in 16:10 kommen und das wäre meiner. Auch für 800-1.000Euro.
Acer mag ich dagegen nicht so.


Mal eine Frage zu G-Sync.
Es ist ja dafür da ein Bild/Spiel flüssiger darzustellen. Genau das Gegenteil ist ja eigentlich der Fall wenn man Grafikkarten im SLI oder Crossfire-Betrieb hat. Wirkt G-Sync oder meinetwegen auch Free-Sync diesem Mikrorucklern entgegen oder ändert sich daran nichts?
 
Zuletzt bearbeitet:
kristwi schrieb:
Unterschreibe ich auch bloß 3D braucht niemand.
Ich frage mich bei solchen Posts immer, was das soll.
Keine Ahnung von nichts, aber einfach mal etwas schlecht reden, weil man ja so cool anti "Hype" ist.

Wer mal ein Spiel mit gut funktionierender Stereoskopie-Funktion (z.B. Trine 2) auf einem vernünftigen Panel in 3D gespielt hat, weiß wie eklatant die Spielerfahrung und Atmosphäre davon profitiert.
 
Oha!! Nun hier mal kurz ein Interessanter Link: http://hardforum.com/showthread.php?t=1841311
Viel wichtiger aber: http://forums.whirlpool.net.au/archive/2317043 (Benq XL2720G wird wohl nicht kommen dafür: )
Do you have any updates on when the XL2720G will be coming out?

BenQ Gaming USA:
That model will not be released in the US. Sorry, we do not have any control over this.

Me:
Are they going to be released anywhere else apart from the US?

BenQ Gaming USA:
From what I know: No. We are releasing a 27" 1440p 144Hz FreeSync monitor instead. It will function the same as G-Sync, but will be able to work with both nVidia and AMD as it is actually being made part of the DisplayPort standard.
Benq pfeift auf nVidia und bringt freesync. Das wäre schon heftig.
 
Also Freesync funktioniert quasi mit allen Karten die Display Port 1.2 können.. Gut zu wissen da ja immer gesagt wird das es nur mit gewissen AMD Karten geht, was wohl daran liegt das Freesync im Grunde von AMD angestoßen wurde?!? Oder kommt das unabhängig?
 
Nach einer Headline von Golem zitiert: "AMDs Freesync wird als Adaptive Sync Teil von Displayport"
Ergänzung ()

Hier mal recht interessant die Vorteile von Adaptive Sync zu G-Sync: http://support.amd.com/en-us/search/faq/220
Und hier alles weitere zu Freesync/Adaptive Sync: http://support.amd.com/en-us/kb-articles/Pages/freesync-faq.aspx
Ergänzung ()

Und wer das nicht auf Englisch durchkauen will, hier ein deutscher Artikel dazu
http://www.3dcenter.org/news/amds-freesync-wird-optionaler-bestandteil-von-displayport-12a
 
Hier wird auch nirgends darauf verwiesen das es mit Nvidia Karten funktioniert, liegt aber wohl daran das die natürlich AMD Karten verkaufen wollen???
Zumindest nicht offiziell und hoffen wir das Nvidia da nichts mit Treibern unterbinden kann! 😨
 
Zuletzt bearbeitet:
Zu 3d kann ich nur sagen: Wer spielt in 3d?
Wenn ich in 3d spielen will dann bitte mit oculus sofern ich mir schon ne teure brille auf die nase setzen muss.
Und ja der 3d effekt der oculus ist 3d vision weit überlegen wenn man den nutzern glauben schencken darf die beides besitzen.
 
karod3 schrieb:
Das wäre nicht heftig, sondern vernünftig:
Gemeint ist hier dass es schwer fällt das zu glauben (weil Benq ja doch etliche Verträge mit Nvidia hat). Zudem wären sie mit einer Ankündigung im Februar vermutlich auch früher am Markt als bisherige AMD-Featured Modelle. Und nVidia hat hier noch nicht's vergleichbares zu Freesync umgesetzt.
Was ich mir aber vorstellen könnte: sie waren genervt dass es mit G-Sync noch immer so Probleme gibt (u.a. dass es nicht gemeinsam mit 3D Vision genutzt werden kann, und ich denke bei Freesync wäre das u.U. möglich!?) und haben einfach mal gesagt: es reicht, wir wenden uns an eine sowieso kompatiblere und günstigere Variante (wenn auch nicht kostenlos - man darf den Aufwand der dahinter steckt das dem Monitor beizubringen nicht unterschätzen).

EDIT: Btw. ich könnte mir vorstellen, dass in den nächsten GPU-Generationen ein eigener Chip oder Teil im Chip steckt, der sich dann um die Verwaltung für DFR kümmert.

kristwi schrieb:
Hier wird auch nirgends darauf verwiesen das es mit Nvidia Karten funktioniert, liegt aber wohl daran das die natürlich AMD Karten verkaufen wollen???

Zumindest nicht offiziell und hoffen wir das Nvidia da nichts mit Treibern unterbinden kann!
Naja, du musst eig. unterscheiden zw. "DisplayPort Adaptive-Sync" (womit wohl alle DP1.2 GPU's umgehen können müssten) und "FreeSync" (das nur für bestimmte AMD Modelle zur Verfügung steht - frag mich nicht warum HD 7k/8k beim Gaming nicht unterstützt wird). Es reicht ja nicht wenn das übertragen werden kann. Der Rest (ein bisschen der Monitor, aber) vor allem die GPU muss bei einer Umsetzung für DFR auch einiges machen (und wie gesagt hat Nvidia hier noch nichts, deswegen ja G-Sync das die Arbeit hier übernimmt).

Was heißt unterbinden? Sie müssen es erst mal unterstützen und selbst dann können sie es sogar für gewisse Modelle unterbinden (wie es wohl AMD auch macht laut offiziellen Angaben).

TheDarkness schrieb:
Zu 3d kann ich nur sagen: Wer spielt in 3d?
Wenn ich in 3d spielen will dann bitte mit oculus sofern ich mir schon ne teure brille auf die nase setzen muss.
Und ja der 3d effekt der oculus ist 3d vision weit überlegen wenn man den nutzern glauben schencken darf die beides besitzen.
Das zeig mal! Hast du denn 3D Vision (oder AMDs HD3D oder über 3D über TriDef) mal selbst getestet? Ja es gibt Immersion, aber in den aktuellen Versionen kommt der 3D Effekt aufgrund der Auflösung noch nicht so gut rüber (bei wem getestet und auch von mehreren berichtet - z.B. auch hier von ronrebell und anderen), zudem lässt Oculus sicher noch mind. 1 Jahr auf sich warten. Vorher wird es scheinbar keine annähernd so gute Alternative geben.
 
Zuletzt bearbeitet:
Towelie schrieb:
Das zeig mal! Hast du denn 3D Vision (oder AMDs HD3D oder über 3D über TriDef) mal selbst getestet? Ja es gibt Immersion, aber in den aktuellen Versionen kommt der 3D Effekt aufgrund der Auflösung noch nicht so gut rüber (bei wem getestet und auch von mehreren berichtet - z.B. auch hier von ronrebell und anderen), zudem lässt Oculus sicher noch mind. 1 Jahr auf sich warten. Vorher wird es scheinbar keine annähernd so gute Alternative geben.

Ich kenne beides, der 3D Effekt bei der Occulus ist deutlich besser. Aber ist eigentlich offensichtlich.
Dabei hatte ich nur das erste DevKit auf.
 
Jetzt bitte noch 144Hz in 3840*2160 auf einem VA-Panel. <3 Bevor gleich alle schreien: In Spielen auf 1920*1080 stellen, aber beim Surfen, Arbeiten und Filme schauen Retina benutzen (Retina-Unterstützung von Windows vorausgesetzt).
 
Das Handtuch hat schon recht:
Die räumliche Darstellung bei stereoskopischem 3D hängt deutlich von der Auflösung ab (wobei hier in erster Linie die horizontale Auflösung eine Rolle spielt). Daher sind aktuelle Rift DevKits einem FullHD-Monitor noch unterlegen.
Eine VR-Brille hat halt zusätzlich noch die Immersion durch Headtracking und Borderless Pictures.

3D-Gaming per Monitor macht aber ganz unabhängig davon trotzdem Sinn.
Viele Spiele eignen sich überhaupt nicht für VR, können aber auf einem 3D-Monitor ganz hervorragend aussehen.

Der einzige Grund, warum sich 3D bei Spielen bis heute nicht durchgesetzt hat, liegt ganz einfach daran, daß es kaum Spiele gibt, die es nativ unterstützen.
 
@derfreak Kann es sein dass du "3D Effekt" mit was anderem verwechselst (Stichwort Immersion)? Welche Spiele/Anwendungen hast du je getestet? Wie viel Zeit jeweils damit verbracht? Davon abgesehen gibt es eben auch andere die beides kennen und sagen dem ist nicht so - und jetzt? Jedenfalls geht das Thema eig. langsam zu Off-Topic. (Ob 3D Vision dabei ist - war eine berechtigte Frage - was der Vergleich hier zu Oculus soll - kein Plan)

@UltraWurst - letzte Zeile - ich weiß nicht. Ja es gibt kaum Spiele die 3D von sich aus anbieten, aber die Kombo bei Nvidia (aus 3D Vision inkl. "Comp.Mode" und HelixMod) ermöglicht auch wenns gerne mal dauert letztendlich fast jedes Spiel in 3D. Auch bei TriDef funktioniert das meiste ganz gut. Es sind wohl eher Sachen wie die Anschaffungskosten, die Abschreckung durchs Kino, das Geflickel wenn es mal nicht Out of the Box läuft, die Hoffnung auf eine Technologie bei der man keine Brille tragen muss, bei Shutter auch (die Furcht vor) Probleme(n) mit Kopfschmerzen & Co., ....... (wobei all das auch auf Oculus zutrifft/treffen kann).

@Banger Ich bin mir nicht sicher ob du dir das nicht zu einfach machst? Willst du wirklich auf nem Monitor (der anders als TV's darauf ausgelegt ist den Inhalt auch aus nächster Nähe möglichst scharf darzustellen) mit einem Interpolierten Bild spielen? Ja okay, vergleicht man das auf sagen wir 27" 1080p zu 2160p (statt einem hat man 4 Pixel) mag es sein, dass der Unterschied nicht mehr so stark ist wie früher weil mehr Grunddaten des Bildes zur Verfügung stehen und Upscaler immer besser werden (wobei das hauptsächlich auf TV's zutrifft - ich bin bei Monitoren noch nicht einem zufriedenstellendem Modell begegnet - hab aber auch noch keinen UHD Monitor beim Interpolieren live erlebt). Jedenfalls hast du dir das schon mal angesehen wie das derzeit so funktioniert (bevor du all deine Hoffnungen darauf setzt noch womöglich 2 Jahre wartest um dann enttäuscht zu werden)?

Btw. Retina? Wir sind hier nicht bei Apple. ;)
 
Zuletzt bearbeitet:
Tramizu schrieb:
Mal eine Frage zu G-Sync.
Es ist ja dafür da ein Bild/Spiel flüssiger darzustellen. Genau das Gegenteil ist ja eigentlich der Fall wenn man Grafikkarten im SLI oder Crossfire-Betrieb hat. Wirkt G-Sync oder meinetwegen auch Free-Sync diesem Mikrorucklern entgegen oder ändert sich daran nichts?

Mikroruckler resultieren ja aus sehr inhomogenen Frame times. Die werden ja nicht durch eine Sync-Tech verändert, nur die Frames werden tear frei dargestellt, ruckeln aber weiter.
 
Towelie schrieb:
@UltraWurst - letzte Zeile - ich weiß nicht. Ja es gibt kaum Spiele die 3D von sich aus anbieten, aber die Kombo bei Nvidia (aus 3D Vision inkl. "Comp.Mode" und HelixMod) ermöglicht auch wenns gerne mal dauert letztendlich fast jedes Spiel in 3D. Auch bei TriDef funktioniert das meiste ganz gut.
Naja, aber das sind eben alles Dinge, die noch mal zusätzlich Geld kosten, z.T. Frickelei sind, und nicht garantiert immer funktionieren (oft gibt's Bugs mit Schatten usw.).
Und NVidia ist auch zum Kotzen, weil sie nur ihr eigenes Shutter-3D unterstützen.
Ich habe das alles schon ausprobiert, und es nervt einfach. So macht das keinen Spaß.

Aber hast Recht. Die Abschreckung durch schlechtes 3D im Kino leistet sicher auch seinen Beitrag.
 
bevor ich mir so einen möglichen Blender hole, warte ich noch ne ganze Weile. wie ich nämlich einer anderen Quelle entnehmen kann, ist ein non-strobed IPS in der Bilddarstellung wohl ähnlich einer VHS-Wiedergabe:

http://www.blurbusters.com/gsync/list-of-gsync-monitors/

Chief Blur Buster says:

January 27, 2014 at 11:24 am


For now, but there are likely some IPS panels coming too.

That said, I hope ULMB (LightBoost sequel / strobing) comes to IPS because otherwise hugely prefer a strobed TN monitor than a non-strobed IPS monitor, as Photos: 60Hz vs 120Hz vs LightBoost as current IPS panels essentially go “VHS-quality blurry” during fast motion. Hopefully IPS is becoming ready for strobe backlights soon enough.

The ASUS ROG PG278Q uses a superior 8-bit TN panel, which will result in better colors than the others.
 
derfreak schrieb:
Ich kenne beides, der 3D Effekt bei der Occulus ist deutlich besser.

Das stimmt in der Tat. Leider ist er so realistisch, dass mir sofort übel wird, wenn ich die virtuelle Kamera mit der Maus statt mit dem Headtracker bewege. 3D-Vision ist zwar "nur" eine Art 3D-Terrarium mit Pop-Out-Effekten, aber damit kann ich sogar hektische Shooter wie Serious Sam 2 stundenlang spielen.
 
Was mich das wieder an :kotz: .... Jetzt muss man schon nach der richtigen Grafikkarte zum Monitor schauen. Wehe man möchte mal wechseln dann darf man gleich Grafikkarte UND Monitor austauschen. Technik klingt toll, aber wollt ihr euch wirklich so krass an die Leine binden lassen? Wird Zeit das sowas geregelt wird.Ein gemeinsamer Standard muss her!
 
Towelie schrieb:
@Banger Ich bin mir nicht sicher ob du dir das nicht zu einfach machst? Willst du wirklich auf nem Monitor (der anders als TV's darauf ausgelegt ist den Inhalt auch aus nächster Nähe möglichst scharf darzustellen) mit einem Interpolierten Bild spielen? Ja okay, vergleicht man das auf sagen wir 27" 1080p zu 2160p (statt einem hat man 4 Pixel) mag es sein, dass der Unterschied nicht mehr so stark ist wie früher weil mehr Grunddaten des Bildes zur Verfügung stehen und Upscaler immer besser werden (wobei das hauptsächlich auf TV's zutrifft - ich bin bei Monitoren noch nicht einem zufriedenstellendem Modell begegnet - hab aber auch noch keinen UHD Monitor beim Interpolieren live erlebt). Jedenfalls hast du dir das schon mal angesehen wie das derzeit so funktioniert (bevor du all deine Hoffnungen darauf setzt noch womöglich 2 Jahre wartest um dann enttäuscht zu werden)?

Btw. Retina? Wir sind hier nicht bei Apple. ;)

Da wird meinem Verständnis nach nichts interpoliert, wenn man auf einem 3840*2160-Bildschirm 1920*1080 einstellt! 2*2 Pixel stellen einen Pixel da, also gibt es kein Gematsche und alles ist scharf.

Retina benutze ich einfach als Synonym für eine sehr hohe Pixeldichte.

Und Windows und alle Programme müssen alle Schriften und Grafiken mitskalieren. Bei meinem Nicht-Apple-Handy mit Retina-Bildschirm geht es ja auch, dass alles vernünftig skaliert wird und lesbar ist.

Edit: Moment mal! Der Bildschirm muss 28" mit 3840*2400 haben, wo man 1920*1200 einstellen kann, falls die Grafikkarte das Spiel nicht auf 4K schafft. 16:10 ist für mich das bessere Bildformat.
 
Zuletzt bearbeitet:
Zurück
Oben