News Acer XR341CK: 34-Zoll-LCD mit FreeSync kommt früher und ist günstiger

Mal so eine Frage:
AMD wollte die untere Hz Zahl angehen. Für mich interessant wären 24Hz. Für Filme und Serien hätte man dann endlich tearingfreies Bild. Das wäre zumindest meine Wunschvorstellung.
 
chrisnx schrieb:
Mal so eine Frage:
AMD wollte die untere Hz Zahl angehen. Für mich interessant wären 24Hz. Für Filme und Serien hätte man dann endlich tearingfreies Bild. Das wäre zumindest meine Wunschvorstellung.
Jep, ein sehr guter Punkt. Auch Zwischensequenzen in vielen Spielen laufen mit festen FPS-Werten von unter 30FPS.
Zu deiner Frage: Wo ist da ne Frage? :p
 
Jetzt noch 120 oder 144Hz mit 30Hz als Minimum und das Ding ist gekauft.
 
Necareor schrieb:
Jep, ein sehr guter Punkt. Auch Zwischensequenzen in vielen Spielen laufen mit festen FPS-Werten von unter 30FPS.
Zu deiner Frage: Wo ist da ne Frage? :p

Früh am Morgen, achtet man nicht immer darauf, was man hier von sich gibt. :D

Wie sieht es mit der Entwicklung aus?
Wird es Freesync möglich sein, 24Hz tearingfrei darzustellen? Und wie ist es über 60Hz, da schaltet es sich ja meines Wissens nach ab, ist dies sinnvoll?
 
@PiPAPA
Ich glaube nicht das es um Wettbewerb geht den G-Sync ist nunmal wenn auch vermutlich nur marginal besser als Free-Sync. Ob einem das 100€ Aufpreis wert sind muss erst mal jeder selbst für sich entscheiden.
Aber ich glaube es geht NV noch nicht mal um die 100€ ka wieviel Gewinn da gemacht wird sondernes eher darum wie bei Phys-x die Kunden an ihr Produkt zu binden mit einer exklusivtechnik und das ist durchaus legitim wenn auch nicht Kundenfreundlich.


Also auf Geizhals werden beide gelistet und da is g-sync mit 30hz und free sync mit 40 hz angegeben. Ob das aktuell gültige Angaben sind oder nur von den Händlern übernommen wurden von bisherigen Infos der Techniken weis ich allerdings nicht.

Ja langsam kommen Monitore die einen guten mittelweg darstellen für anspruchsvollere Gamer, wobei der 27" swift und 27" acer ja auch sehr gut sind aber mit 27" sind die mir definitv zu klein.
Und mein nächster Monitor soll definitiv ein 21:9 Modell werden zur Not wird halt noch gewartet bis ein gutes Allroundmodell kommt, aber der Acer geht wirklich schon in die richtige Richtung.
Und damit man ich hier in der Höhe nicht nach unten gehe muss es auch ein 30" + Modell sein habe noch einen Dell 16:10 .

Das G-Sync 100€ mehr kostet sollte mittlerweile auch klar sein ist bei jedem Monitor bis jetzt noch so gewesen.
Also das sich das so durchsetzen wird können mit 100€ aufpreis ich weis ja nicht.Wenn ich wüsste das die Technik aktuell bleibt wärs für mich kein Problem das zu bezahlen den Monitor behält man dann eh wieder länger das sind dann evtl 15€ mehr pro Jahr für den Monitor das es mir Wert wäre, aber so kauft man den Monitor und mit Pech wird das nach 2 Jahren von Nv einfach abgesetzt und man hat 100€ umsonst ausgegeben.
 
Zuletzt bearbeitet:
Galaxytourist schrieb:
Freesync/Adaptive Sync geht bis 40 Frames /G-Sync bis 30. Wobei es nur eine Treibereinstellung ist. AMD könnte Freesync ohne weiteres auch auf 30 Frames setzen.

War das nicht so, dass das am Monitor lag und nicht an AMD bzw FreeSync? Wenn ein Monitor nicht weniger als 40Hz darstellen kann, wie soll Fsync 30fps damit synchronisieren?
 
zeedy schrieb:
War das nicht so, dass das am Monitor lag und nicht an AMD bzw FreeSync? Wenn ein Monitor nicht weniger als 40Hz darstellen kann, wie soll Fsync 30fps damit synchronisieren?

Stimmt, hast natürlich recht, der Monitor muss es auch mitmachen.
 
chrisnx schrieb:
Mal so eine Frage:
AMD wollte die untere Hz Zahl angehen. Für mich interessant wären 24Hz. Für Filme und Serien hätte man dann endlich tearingfreies Bild. Das wäre zumindest meine Wunschvorstellung.

Du kannst den Monitor bei 24p Inhalten doch einfach auf 48hz stellen - das läuft dann genauso flüssig, wie direkt 24p. Anders machen es die TV Geräte ja auch nicht - da wird das Panel mit einem Vielfachen von 24hz betrieben.

Laut Datenblatt geht das Panel nur über HDMI auf 24 Hz runter, siehe hier:

https://pbs.twimg.com/media/CIVH2IKW8AAAkCr.jpg


HDMI 23-80 hz (Wobei darunter dann steht, dass HDMI maximal 60 Hz mitmacht - mehr geht da ja auch nicht von der Bandbreite her)
DP 30-75 Hz
 
Zuletzt bearbeitet:
Gibt es irgendwo Benchmarkergebnisse für diese Auflösung und einer 980ti OC? Habe Sorge, dass die GPU Power noch nicht für Konstante 60 FPS ausreicht...
 
Da es ca 1/3 mehr Pixel sind, gehe mal von einer ca. 1/3 niedrigeren FPS aus ;) In neuen Games auf höchsten Settings wirst du da keine 60 fps erreichen, aber dafür gibt's ja Gsync
 
SlapJack schrieb:
Keine Ahnung warum hier nun alle so Abgehen. Ihr findet FreeSync toll? Super kauft euch nen Monitor damit und freut euch eures Lebens. Ihr Nutzt sowieos Nvdida dann nehmt nen G-Sync.

Wenn man entsorechenden Aussagen von Bildschirmherstellern glauben darf ist es im Moment so, das G-Sync eine Tatsächlichr Komunikation mit dem Monitor macht und laut Bildschirmherstellern im Moment die besser Lösung ist. Entsprechend auch in einigen Artikeln Nachlesbar. FreeSync ist eher eine Vorraussage wie viel Frames ca. Kommen werden und deshalb, ebenfalls laut Bildschirmherstellern noch nicht so ausgereift. Auch Interessant das die Meisten Bildschirmhersteller erstmal G-Sync Monitore entwickeln und ankündigen und dann Freee Sync.

Und toll das AMD nen Offenen Standard aus Ihrem Ding macht und somit direkt die Aussage trifft, das ist offener Standard kann jeder machen. Entwickelt hats aber AMD und nicht VESA. Genauso hat Nvidia G-Sync. Klar sie habens nicht zu nem Offenen Standard gemacht, da sie schließlich anders als AMD auch eine entsprechende Hardware für den Monitor entwickelt haben etc. Aber es wär genau so möglich das AMD G-Sync in ihren nächsten Grafikkarten nutzt. Da es auch alte Karten können scheint das eher weniger Hardwareabhängig zu sein.

Wie auch immer. Es gibt immer 2 Seiten der Medalie. Da AMD für mich seit einigen Jahren einfach Uninteressant ist hab ich Nvidia und ich werd auch dabei bleiben und deshalb auch n G-Sync Monitor holen und kein Freesync. Mag seind as die etwas Teurer sind aber in den letzten Jahren hatte Nvidia bei den releases von games meist die schnelleren und besseren Treiber am start (siehe Project Cars...) und auch entsprechende Technologien entwickelt und in Spiele Implementiert die auch einen entsprechenden Mehrwert bieten. Deshalb bin ich auch bereit etwas mehr bei nem G-Sync Monitor und bei ner Graka zu zahlen da es nacher einfach läuft.

Aber das ist alleine meine Meinung und die muss auch keiner Teilen. Aber da alle hier ihren Senf ablassen will ich das auch mal machen. Gruppenzwang und so.

In diesem Sinne

Gesented von meinem Smartphone

Es geht einfach darum das es einen offenen Standard gibt der das gleiche macht wie GSync, bei etwa vergleichbarer Qualität. Das ganze auch noch ohne große Mehrkosten für den Kunden. Hinzu kommt noch das sich ich und viele andere nicht auf einen Hersteller festlegen wollen. Einen Monitor hat man idR länger als eine Grafikkarte. Kauft man sich jetzt eine NVidia oder AMD muss man auch den passenden Monitor kaufen wenn man Freesync bzw. G-sync nutzen will.

Kauft man sich später dann eine Karte vom anderen Hersteller(Ja es gibt Leute die nicht immer vom gleichen Hersteller kaufen egal ob der andere für einen persönlich das beessere Angebot hätte oder nicht), muss man sich gleich wieder einen neuen Monitor holen, was ja nicht unerhebliche Mehrkosten verursacht.


Der größte Witz bei der Geschichte ist aber eben auch schlichtweg, das Nvidia Adaptive sync bei Notebooks nutzt bzw. angekündigt hat es zu nutzen. Nennt sich natürlich bei denen dann auch G-Sync ist aber effectiv Adaptive sync.

D.H. Nvidia behält seinen eignen Standard für den Desktop effektiv nur bei um es den Kunden schwerer zu machen später zu wechseln. Alleine deswegen sollte man momentan schon keine Nvidia-Karte kaufen.
 
Zuletzt bearbeitet:
ich muss zugeben dass ich mit den neuesten monitorvorstellungen nicht soo viel anfanhen kann..
zum einen ist 21:9 noch lange nicht beim gaming in der breite angekommen; bei den üblichen 16:9 auflösungen gibts da links und rechts schwarze balnek, wenn man keine flachköpfe (verzerrtes bild) sehen will..

2560x1440 wären nach heutigem stand der graka leistungsfähigkeit auch für die nächsten 2-3 jahre ok.
dazumal wäre freesync/g-sync zw. 24hz und irgendwo 80Hz+ wünschenswert, aber besonders in den niedrigen frameraten da es hier auch am meisten gegen tearing bringt...

ok, es ist ein 34zoll gerät, aber der preis ist dennoch...:rolleyes:
 
dcdead schrieb:
Du kannst den Monitor bei 24p Inhalten doch einfach auf 48hz stellen
Das ist ja genau das, was GSync macht, und FreeSync eben nicht. Unter 30FPS werden die Bilder einfach verdoppelt, und dann bist wieder im synchronen Bereich.

Galaxytourist schrieb:
Es geht einfach darum das es einen offenen Standard gibt der das gleiche macht wie GSync, bei etwa vergleichbarer Qualität.
Also zum heutigen Zeitpunkt stimmt diese Aussage nicht, aber vielleicht irgendwann mal in Zukunft, wäre wünschenswert.
 
Komisch, da sagen die G-Sync vs FreeSync Tests von u.a. Computerbase, Hardwareluxx, pcgameshardware usw aber etwas vollkommen anderes.

http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/Specials/AMD-Freesync-G-Sync-Konkurrenz-Test-1153777/

Einen klaren Sieger zwischen Freesync und G-Sync gibt es unserer Meinung nach aktuell nicht. Optisch nehmen sich die beiden Technologien nicht viel, G-Sync wirkt einen Hauch weicher; das mag aber im subjektiven Auge des Betrachters liegen.

http://www.hardwareluxx.de/index.php/artikel/hardware/monitore/35026-freesync-vs-g-sync-drei-monitore-im-test.html

G-Sync und FreeSync sind nicht nur technisch nahezu identisch, sondern auch im Erlebnis des Effekts. Wer einmal an einem solchen Monitor gespielt hat, will nicht wieder zurück. Keine der beiden Technologien ist dabei in einer bestimmten Art und Weise im Vorteil.

https://www.computerbase.de/2015-03/amd-freesync-im-praxistest/3/#abschnitt_fazit

FreeSync und G-Sync liefern dieselbe Bildqualität. Je nach Spiel und Konstellation aus Bildschirm und FPS ist das erlebte Resultat gegenüber V-Sync an oder aus damit gravierend besser – bei beiden Konkurrenten. Unterschiede zwischen FreeSync und G-Sync finden sich im Detail.
 
Zuletzt bearbeitet:
iHabAhnung schrieb:
G-Sync war schon marktreif, als es Adaptive Sync noch gar nicht gab.
iHabAhnung schrieb:
Sollte diejenigen interessieren, die hier davon erzählen, dass Nvidia bei der Entwicklung von G-Sync absichtlich einen "offenen Standard" ignoriert hat. Aber mit dir brauche ich sowieso nicht diskutieren.
Beides falsch. Adaptive-Sync ist seit 2009 für eDP in Notebooks standardisiert, und NVidia nutzt es sogar in ihrem mobil-G-Sync.

Sie wurden auch gefragt, warum sie G-Sync nicht zur Standardisierung eingereicht haben, und die Antwort war in etwa, dass sie in diesem Bereich kein Interesse an offenen Standards haben.
 
@PiPaPa: Lies nochmal genauer deine Tests durch, diese ganzen Folgerungen basieren darauf, dass die Untergrenze nicht unterschritten wird! Tests, die auch auf das Unterschreiten dieser Grenze eingehen, ergeben da andere Resultate.
Ich gebe dir aber natürlich Recht, solange die FPS darüber bleiben, macht es keinen wirklichen Unterschied ob GSync oder FreeSync.
 
Zuletzt bearbeitet:
Wobei man unter 30 FPS über neue Hardware oder niedrigere Einstellungen nachdenken sollte, so oder so...
 
Ich weiß es nicht, daher frage ich es mal hier.
Bringt curved den überhaupt etwas außer das keine Kante im Spiel mehr gerade ist?
Ansonsten ist die Preisentwicklung nicht so ganz das Wahre, selbst wenn man die 20% Kaufkraftverlust durch den schwachen € berücksichtigt.

LG 34UM95-P (3440x1440@60Hz IPS meiner hat keine Lichthöfe oder IPS Glow) letztes Jahr: 800€.
Acer XR341CK (3440x1440@75Hz IPS, Freesync, curved) Bald: 1100€.

Kann man sich also darauf einstellen das in 4 Jahren brauchbare TFTs soviel kosten wie Gebrauchtwagen?^^
Wobei, bei Grafikkarten ist man es ja gewohnt seit AMD NVIDIAs TITANs bei den Prestigesiegen zusieht.

Aber, ich bin wirklich froh das endlich mal was in dem Bereich der TFTs passiert, lange hat es gedauert, nur mit dem curved werde ich irgendwie nicht warm.
 
Zuletzt bearbeitet:
Fruuky schrieb:
Wobei man unter 30 FPS über neue Hardware oder niedrigere Einstellungen nachdenken sollte, so oder so...
Das kann man pauschal so nicht sagen, es gibt genug Spiele, in denen man bei einer Auflösung von 3440 x 1440 gar nicht so leicht stabile 50 FPS erreicht. Und noch viel ausschlaggebender: Selbst bei 100FPS im Schnitt kann es bei fordernden Szenen Framedrops geben, die unter 40FPS fallen. Und wegen diesen kurzen Szenen willst du dann die Details runter schrauben oder gar neue Hardware kaufen?
 
Die Daten klingen erstmal gut, aber mal sehen was am Ende dabei raus kommt. Guter Kollege hat sich in den letzten 3 Wochen vier Monitore gekauft und alle hatten Probleme und das bei Monitoren die 670-840€ Kosten.
1. LG 34UM95-P - starkes Backlight Bleeding
2. Acer Predator XB270HUbprz - Backlight Bleeding + 1 Pixelfehler
3. ASUS ROG Swift PG278Q - über 7 Pixelfehler & körniges Bild, aufgrund der matt Folie. Und TN Panel hat ihn gestört nach dem er die IPS Modelle getestet hatte.
4. Wieder der Acer Predator XB270HUbprz - gute Ausleuchtung aber 4 Pixelfehler.

Das ganze ist einfach noch nicht ausgereift, ich vermute mal in 1-3 Jahren wird es vernünftige Monitore mit den Merkmalen (IPS, GSync/Free Sync, 120Hz/144Hz, und WHQ/UHD/4K) geben. Oder wenn Eizo so einen Monitor raus bring, ist die Technik ausgereift. Eizos 144Hz Monitor kam auch erst viel später raus als die anderen Hersteller schon das 2. Modell draußen hatten.

An alle die nach 120/144Hz bei der Auflösung schreien, mal abgesehen das die Anschlüsse noch nicht die Bandbreite dafür haben, bedenkt mal die Rechenleistung die Ihr dann benötigt. Und selbst eine Fury X oder 980 ti schaffen nicht mal die 60 FPS in der Auflösung konstant in den neusten Spielen.

Marcel55 schrieb:
Gefällt mir trotzdem...das einzige Problem ist, meine R9 290 hat schon mit 1080p zu kämpfen, für 3440x1440 reicht es ja nicht mal wenn ich ne zweite dazustecke :D[QOUTE]
Bei welchen Spielen? Habe auch eine R9 290 und spiele BF4 hoch skaliert auf 4k mit 57-80+ FPS, AA aus, den Rest auf High bis Ultra. Auf einem 27" Monitor mit 2560x1440 Auflösung.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben