News FreeSync-Monitore zum Jahreswechsel im Handel

Und du bist also vollkommen objektiv?
Derjenige der sich für 799€ die nächste Zeit an einen Hersteller gebunden hat, und unter Umständen dessen Gerät in kürzester Zeit einen massiven Wertverlust erfährt?
Aber natürlich war jedes einzelne Scheinchen es wert ausgegeben zu werden. Wie immer.
 
Daedal schrieb:
20W und 30% Differenz ist bei dir kaum? Na dann.

Offensichtlich kannst Du deinen unter praxisfremden Bedingungen entstandenen Äpfel-Birnen-Vergleich noch nicht einmal richtig interpretieren. Das ganze erste Diagramm ist ohne Informationswert, weil die "MAX BRIGHTNESS" bei jedem Monitor anders ist.

Und bei maximaler Helligkeit ist der Anteil der Hintergrundbeleuchtung am Gesamtverbrauch auch viel zu hoch, um irgendwelche sinnvollen Rückschlüsse auf den Verbrauch der Scaler-Elektronik ziehen zu können. Selbst nach Korrektur um den Lichtstrom (Lumen!) erhält man da in erster Linie die Effizienz der Beleuchtung, ihres Schaltreglers und den Lichtverlust durch das Panel.

Daedal schrieb:
Du wirst verstehen, dass ich einem Kompletten Review mit nachvollziehbarem Testaufbau das ich mir selber anschauen kann doch mehr vertrauen entgegenbringe, als ohne Belege angeblich selbst gemessene Werte zu glauben, von jemandem der hier mehrfach falsches gepostet hat nachweislich.

Falsch ist meistens das, was Du in meine Postings hineininterpretiert hast. Und wenn Du meinem 30€-Schätzeisen nicht traust, dann frag jemanden, der sich mit Technik auskennt, ob der die Messmethode der c't oder den 100%-Helligkeits-Unfug für sinnvoller hält.
 
Deadal schrieb:
GSync gibts nur mit TN-Panels. Deswegen müssen die Nutzer darauf rumgurken - stimmt ein weiterer fehlender Punkt auf der Featureliste und worauf man verzichten muss zugunsten GSync. Die wird immer länger.

Man sollte aber abwarten, ob nicht auch Bildschirme mit IPS kommen. Oder sind schon welche für Adaptive Sync angekündigt? Ich denke nicht.

MikelMolto schrieb:
Echt langsam lachhaft diese Diskussion hier. Da werden Seitenlang ein paar Watt mehr bei GSync bemängelt aber obwohl die Kombination Hawaii mit FreeSync insgesammt mehr verbraucht bleibt das Argument mehr Stromverbrauch bei GSync.
.

Natürlich bleibt das Argument. Der Monitor isoliert scheint ineffizienter zu sein, genauso wie das Argument zu MAxwell vs. Hawai bleibt.

Leute wie @Daedal hacken seitenlange auf der selben Sache herum anstatt einfach einmal Testberichte zwischen FreeSync und GSync abzuwarten, damit man eine echte Diskussionsgrundlage hat.

Einige Dinge wurden ja belegt oder zumindest versucht.
Diskussionsgrundlagen hat man für eine Diskussion doch schon genug.
Ich finde allerdings man sollte nicht zwanghaft alles immer so eng sehen.

Für mich sieht es so aus, dass Adaptive Sync besser wird, was Verfügbarkeit, Effiziienz und Auswahl angeht.
Was das Produkt danach selbst leistet bleibt abzuwarten.

Deadal; schrieb:
Niemand kauft sich eine Maxwell, vor allem wenn er sie aus Effizienzgründen kauft, um dann beim Monitorkauf keinen Wert auf Effizienz zu legen.

Was heißt keinen Wert? Ich sags nochmal, der Mehrverbrauch ist da recht gering.
Sollte G-sync besser funktionieren wie Adaptive Sync + Freesync, dann juckt das bissel Mehrverbrauch eher nicht.
Mich juckt es auch bei Hawai nicht, immerhin sind die Karte von qualitativ hochwertiger Qualität, ganz im Gegenteil zu den GTX 970 Witzkarten.

Deadal: schrieb:
ir alle können nur davon profitieren. Ihr diskutiert immer noch Markenorientiert, doch das interessiert mich nicht die Bohne. Ich diskutiere technikorientiert.

Und die Technik bei Adaptivesync ist jetzt besser? Ich denke eher du diskutierst etwas pro AMD.

Niemand kauft sich eine Maxwell, vor allem wenn er sie aus Effizienzgründen kauft, um dann beim Monitorkauf keinen Wert auf Effizienz zu legen. Ich vergleiche auch nicht die GPU mit dem Monitor, sondern das haben andere getan....

"Niemand kauft sich eine AMD, vor allem wenn er sie aus Effizienzgründen kauft, um dann beim Monitorkauf plötzlich Wert auf Effizienz zu legen."

Ich versteh ehrlich gesagt nicht, wieso du diese zwei Dinge Monitor + Grafikkarte miteinander verbindest, was den Strombedarf angeht, oder willst du jetzt lieber Hawai kaufen und dazu einen Monitor der ein paar Watt sparsamer ist wie ein G-sync Ding?.
 
Zuletzt bearbeitet:
@PiPaPa
Danke der Warnung & mir war noch gar nicht bewußt, daß speziell im Enthusiasten-Segment(Moni) der Preisverfall dermaßen ausgeprägt ist.
Meine Devise ...wenn ich mir was order, dann trauer ich Kohle_XY nicht hinterher, sondern genieße einfach ... koste es was es wolle.^^
Zum Thema "Scheinchen" ...Du hast völlig recht ...Die Technik als auch der Moni ist jedes einzelne Scheinchen + Münzchen wert & wenn das nicht der Fall wäre, dann hätte ich den Moni auch nicht behalten ... ;-)

@smilefaker
Ein guter Post & es freut mich, daß nicht nur mir "diverse Widersprüche" aufgefallen sind ... :-)
 
smilefaker schrieb:
Für mich sieht es so aus, dass Adaptive Sync besser wird, was Verfügbarkeit, Effiziienz und Auswahl angeht.
Was das Produkt danach selbst leistet bleibt abzuwarten.

Und die Technik bei Adaptivesync ist jetzt besser? Ich denke eher du diskutierst etwas pro AMD.
Nichts anderes habe ich geschrieben. Ich habe mich lediglich des selben Levels an Spitzfindigkeiten bedient, wie sie mir hier schon seitenweise entgegengebracht wurde. ;)

Und nicht pro AMD, sondern pro VESA und Industriestandard. AMD baut ja keine Monitore.
 
Maxwell wurde ins Spiel gebracht, da sonst immer mit der Effizienz von nvidia argumentiert wird.
Wenn nvidia dann mal keine so tolle abliefert, wie bei G-Sync dies offenbar der Fall ist, inkl. der unnötigen ~ 13W im Standby, welche anscheinend in einem Zeitraum von min. 15min verbraucht werden, heißt es plötzlich das die Effizienz ja doch keine große Rolle spielen würde, und es wird sofort relativiert. :rolleyes:

Die Frage ist doch viel mehr warum anscheinend das G-Sync Modul 15min lang im Standby weiterhin fröhlich ~13W für genau nichts frisst.
Ist es das der FPGA einfach ansonsten arschlahm ist, und nicht aus dem Standby geweckt werden kann?
Firmwareproblem beim AOC? Oder generelles Problem?
Aber wenn bei AMD im BluRay Betrieb etwas mehr verbraucht wird, ist dies wieder sofort ein Contra Argument. Cherry Picking par excellence.

Hier heißt es wieder dasdie c't ja zum Glück nicht "darauf reingefallen" wäre. Das anscheinend im Standby Zeitraum X das G-Sync Modul einfach so nutzlos Strom verbrät?

Aber man präferiert ja G-Sync, also wird gleich alles durch Floskeln relativiert, selbes Spiel beim FPGA. Da werden ohne Belege ASICs ins Spiel gebracht, bis dann jemand zum Glück endlich "erlösende" Links diesbezüglich postet.
Und plötzlich wird darauf dann überhaupt nicht mehr eingegangen. Aber dann holt man gleich die Fanboy Keule raus. :rolleyes:

Ich bezweifel auf jeden Fall das diese "Standby Problematik", sofern sie über den AOC hinaus besteht, bei den Adaptive Sync Geräten vorhanden ist, ebenso beim Verbrauch unter max. Helligkeit.
 
Zuletzt bearbeitet:
Unyu schrieb:
Natürlich argumentierst du pro AMD. Ansonsten hättest du nicht Maxwell ins Spiel gebraucht. Die Monitorhersteller entwickeln keine GPUs.
Der Konkurrent zu den Monitorherstellern ist Nvidia mit GSync. Und Sowohl Maxwell als auch ein GSync-Modul sind nötig dafür, bis auf wenige Kepler Karten die DP 1.2 haben.

Was ist pro AMD wenn ich über Maxwell positiv rede? Hier scheint jemand mir seine eigenen Feindbilder aufdrücken zu wollen.
 
PiPaPa schrieb:
Maxwell wurde ins Spiel gebracht, da sonst immer mit der Effizienz von nvidia argumentiert wird.
Wie du schon fast erkannt hast, ist Kepler/Maxwell nötig. D.h. mit Radeons geht es nicht. Will ich G-Sync, scheisse aber auf Sparsamkeit, so habe ich trotzdem keine Wahl. Selbst wenn die Geforce in allen Punkten schlechter wäre. Kapiert das doch endlich.

Daedal schrieb:
Und Sowohl Maxwell als auch ein GSync-Modul sind nötig dafür, bis auf wenige Kepler Karten die DP 1.2 haben.
Falsch. Kepler ab GTX 650 Ti Boost ist nötig. Mit Radeons läuft es nicht, siehe oben...

Was ist pro AMD wenn ich über Maxwell positiv rede? Hier scheint jemand mir seine eigenen Feindbilder aufdrücken zu wollen.
Maxwell ist völlig Off-Topic.

@AMINDIA
Wo ist nun dein Argument? Bei deinem leeren Unfug kann man ja kaum noch Neutral antworten.
 
Unyu schrieb:
Wie du schon fast erkannt hast, ist Kepler/Maxwell nötig. D.h. mit Radeons geht es nicht. Will ich G-Sync, scheisse aber auf Sparsamkeit, so habe ich trotzdem keine Wahl. Selbst wenn die Geforce in allen Punkten schlechter wäre. Kapiert das doch endlich.
Den ersten Satz bzgl "fast erkannt" lasse ich unkommentiert, da schon recht unverschämt.:rolleyes: Stell einen nicht als dumm hin, ja?

Aber du willst es offenbar nicht verstehen, das es hier um die Argumentation geht.
Ist die Effizienz bei nvidia "hui" wird dies natürlich als Pro Argument hergeholt.
Ist nvidia hingegen Ineffizient, wie dies augenscheinlich bei G-Sync der Fall ist, ist dies natürlich dann kein Contra Argument. Nein, dann heißt es, Effizienz würde die Zielgruppe ja gar nicht interessieren. :rolleyes:
Aber wehe der Satz würde in Bezug auf ein AMD Produkt fallen, dann würden die selben Leuten dies natürlich als Contra Argument bringen, nicht "die Zielgruppe interessiert es nicht" :rolleyes:

Das versucht Daedal schon nun seit Seiten zu erklären, aber es wird lieber versucht ihn mit "Fanboy" abzuwatschen... :rolleyes:
 
Unyu schrieb:
Wie du schon fast erkannt hast, ist Kepler/Maxwell nötig. D.h. mit Radeons geht es nicht. Will ich G-Sync, scheisse aber auf Sparsamkeit, so habe ich trotzdem keine Wahl. Selbst wenn die Geforce in allen Punkten schlechter wäre. Kapiert das doch endlich.
Und warum denkst du dass wir uns hier über dich unterhalten? Für mich ist es eher von Interesse was der Mainstream macht, was doch so langsam anhand des Argumentes mit den Industriestandards mal klar werden sollte.

Ich gönne es jedem der sich GSync leisten will - doch meine Bedenken und meine Meinung, dass Gsync mit den Stückzahlen nicht zu halten sein wird ändern sich dadurch nicht. Wo die wirtschaftlichen und markttechnischen Schwierigkeiten sind habe ich ausgeführt. Ebenso die technischen Unzulänglichkeiten die man in Kauf nehmen muss wenn man sich dafür entscheidet. warum sollte es für mich oder diesen Thread von Interesse sein ob nun hier einige Earlyadopter ihren Kauf bis aufs Blut verteidigen? Weder stört mich eure Kaufentscheidung noch ist diese relevant dafür wie GSync sich im Markt durchsetzen wird.

Ich bevorzuge offene Standards, wo möglich, und keine künstlichen Grenzen die mich in 2-3 Jahren eine langfristig getätigte Kaufentscheidung (ein Monitor steht nun mal gerne 5-10 Jahre) dann bereuen lassen weil sich die Hersteller-Lösung nicht durchsetzen konnte. Und dieses Risiko ist bei jedem Hersteller hoch, selbst wenn er Intel heisst mit deutlich höherer Marktdurchdringung. Wenn ein Unternehmen sich aufs Glatteis wagt, muss ich mich nicht daran Ketten. Das unternehmerische Risiko sollen sie doch gefälligst selber tragen.

Nun würde mich wirklich interessieren worin das Problem ist eine solche Meinung und Einschätzung stehen und gelten zu lassen.
Ich lasse diese ebenfalls gelten - auch wenn ich sie nicht vertrete:
Will ich G-Sync, scheisse aber auf Sparsamkeit, so habe ich trotzdem keine Wahl. Selbst wenn die Geforce in allen Punkten schlechter wäre. Kapiert das doch endlich.
Habs kapiert - und muss ja nicht selber so denken, oder? Hast du DAS kapiert?
 
PiPaPa schrieb:
Aber du willst es offenbar nicht verstehen, das es hier um die Argumentation geht.
Ist die Effizienz bei nvidia "hui" wird dies natürlich als Pro Argument hergeholt.
Es bleibt ein Rätsel warum es unbedingt nvidia vs AMD Kampf sein soll. Es geht hier um G-Sync. Bzw. nicht, eigentlich um Adaptive Sync. Da hat Maxwell nunmal nichts verloren. Maxwell/Kepler sind Vorraussetzung für G-Gync. Nicht mehr oder weniger.

Natürlich ist es Quatsch Maxwell wegen Effizienz zu kaufen und dann hinterher G-Sync zu nehmen. So. Es bliebe nur eines, das ein "verschwenderischer" Monitor weniger/andere Probleme als eine Grafikkarte machen. Aber um das schön zureden bin ich nicht hier. Da kannst du dich an andere wenden.

Ist nvidia hingegen Ineffizient, wie dies augenscheinlich bei G-Sync der Fall ist, ist dies natürlich dann kein Contra Argument.
Aus meiner Sicht ist es ein Contra Argument. ABER: Man hat nicht die Wahl, wenn man G-Sync nutzen will. Das ist der Punkt. Bzw. eigentlich ist aus meiner Sicht so ziemlich egal, solange es sich um TN handelt.

Daedal schrieb:
Ich gönne es jedem der sich GSync leisten will - doch meine Bedenken und meine Meinung, dass Gsync mit den Stückzahlen nicht zu halten sein wird ändern sich dadurch nicht.
Was soll denn das aufeinmal? Ja mich interessiert G-Sync auch nicht. Trotzdem macht es keinen Sinn hier einen Maxwell/Hawaii Kampf in den Thread zu bringen. Besonders wenn man doch behauptet nvidia würde auch in Richtung Adaptive Sync gehen. Wurde zumindest vor einigen Seiten in den Raum geworfen, ich befürchte ja das es nicht so schnell passiert und werde dafür angegangen.
 
Dann wende dich bitte an denjenigen der Hawaii hier ins Spiel gebracht hat - ich hatte lediglich darauf geantwortet. Ich will mich ja nicht mit fremden Federn schmücken, aber es scheint du gehst hier auf den falschen los und entdeckst aus diesem Grund Widersprüche.
JMP $FCE2 schrieb:
Allein mit dem Mehrverbrauch der R9 290X kann man sechs komplette G-Sync-Monitore versorgen :freak:
Was ich für maßlos übertrieben hielt und darauf antwortete
Daedal schrieb:
bei was? Ohne Vergleichswert?

Laut deiner Rechnung verbraucht die 290X 6x21,2W=127,2W mehr ...als was? unter welcher Last?

Du bemerkst, dass deine Zahlen keinerlei Sinn ergeben so isoliert.

Nur komisch wie groß der Aufschrei war weil ich 10% Mehr-Verbrauch für relevant deklariert habe, aber keiner der selben Watt-Zähler mal darauf geantwortet hat was die Hawaii hier im Thread sucht und wie man zu solchen Mondwerten kommt.

Es wird einfach mit zweierlei Masstab argumentiert. Ok, aber wende dich an denjenigen der das "Verbrechen auch verbrochen hat".

Und übrigens ist es ein Unterschied ob man GSync nutzen will oder ob man ein flüssiges Spielerlebnis haben will.

Wer letzteres haben möchte, der interessiert sich auch dafür was er dafür bezahlen muss, wie kompatibel das ganze ist und wie zukunftssicher. Wer explizit GSync haben will, egal was es kann oder nicht, ist in diesem Thread sowieso Offtopic nach deiner Definition.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Ist die Effizienz bei nvidia "hui" wird dies natürlich als Pro Argument hergeholt.
Ist nvidia hingegen Ineffizient, wie dies augenscheinlich bei G-Sync der Fall ist, ist dies natürlich dann kein Contra Argument. Nein, dann heißt es, Effizienz würde die Zielgruppe ja gar nicht interessieren. :rolleyes:

Effizienz spielt immer eine Rolle, aber man muss doch dabei die Größenordnungen im Auge behalten um die es geht!

Wenn man Maxwell mit Hawaii vergleicht, dann sind wir in der Größenordnung von rund 100 W.
Vergleicht man Monitore mit und ohne Gsync, dann reden wird hier von etwa 5-7 Watt.

Ich habe mir mal die Mühe gemacht, und die Monitor-Tests aus c't 24/14 und 22/13 verglichen.

Artikel: (kostenpflichtig)
http://www.heise.de/artikel-archiv/ct/2013/22/106_Bildraketen
http://www.heise.de/ct/ausgabe/2014-24-Test-Gaming-Monitore-mit-Nvidias-G-Sync-Technik-2432395.html


Monitore ohne GSync lagen bei 13,2W bis 21,5W , die Monitore mit Gsync bei 20,5W bis 28,8W.

Da man natürlich nicht beliebige Monitore miteinander vergleichen kann (auch Mittelwertbildung über alle getesteten Monitore scheidet aus), passt es da gut, dass es von AOC einen quasi baugleichen Monitor mit und ohne Gsync gibt.

AOC g2460Pg (mit Gsync): 20,5W
AOC g2460Pqu (ohne GS): 15,7W

Differenz: rund 5W


Mir ist übrigens nicht bekannt, dass irgendjemand seinen Monitor nach dem Stromverbrauch auswählt. Da spielen andere Kriterien eine deutlich größere Rolle.
 
Daedal schrieb:
Was ich für maßlos übertrieben hielt und darauf antwortete
Gut. Das wäre deine fortwährende Hawaii Verteidigung mit dieser Entgegnung geklärt.

Nur komisch wie groß der Aufschrei war weil ich 10% Mehr-Verbrauch für relevant deklariert habe, aber keiner der selben Watt-Zähler mal darauf geantwortet hat was die Hawaii hier im Thread sucht und wie man zu solchen Mondwerten kommt.
Vielleicht liegt es daran, das du diesen Umstand nun seit vielen Seiten breit tritts.

Und übrigens ist es ein Unterschied ob man GSync nutzen will oder ob man ein flüssiges Spielerlebnis haben will.

Wer letzteres haben möchte, der interessiert sich auch dafür was er dafür bezahlen muss, wie kompatibel das ganze ist und wie zukunftssicher.
Für Manche gab es Argumente. Die haben sich trotz der IHV Bindung und des hohen Early Adopter Preises entschieden. Und dieser Nutzerkreis braucht eine Maxwell/Kepler. Ob das Ding nun Titan Z oder GTX 650 Ti Boost bezeichnet wird.

Umgekehrt ist es genauso, wer sich nach aktueller Lage für Adaptive Sync entscheidet muss auf die passenden Monitore warten und eben auf eine Radeon setzen. Er bindet sich an AMD, bis eben nvidia evtl. nachzieht. Es wurde behauptet nvidia wird schnell reagieren, das werden wir sehen. Witzig dabei ist, das du hier meine nvidia Kritik als AMD Kritik auslegst.
 
Kennst Du 27"-Monitore, die nach den c't-Messbedingungen (Helligkeit 100 cd/m²) 5-7 W weniger als die 21,2 W des Acer verbrauchen ? Der beste "typische" Verbrauch laut Geizhals liegt jedenfalls bei 18 W.
 
@ JMP $FCE2

Unter welchen Bedingungen verbraucht der Monitor denn genau diese 21,2 Watt und welches Messgerät wurde denn verwendet?
Der Vergleich mit dem typischen Verbrauch ist auch nicht wirklich sinnvoll, ohne genau das Szenarion zu kennen.
 
kisser schrieb:
Da man natürlich nicht beliebige Monitore miteinander vergleichen kann (auch Mittelwertbildung über alle getesteten Monitore scheidet aus), passt es da gut, dass es von AOC einen quasi baugleichen Monitor mit und ohne Gsync gibt.

AOC g2460Pg (mit Gsync): 20,5W
AOC g2460Pqu (ohne GS): 15,7W

Differenz: rund 5W

Alles klar, der Vergleich macht Sinn. Sorry, hatte ich übersehen.
 
@ kisser

Das genaueste Messgerät bringt aber nichts, wenn ich keine Informationen zum Szenario gebe. Und wenn JMP $FCE2 ständig einen Wert samt Nachkommastelle (!?) zitiert, sollte man doch erwarten können, dass er über das entsprechende Szenario auch detailliert Bescheid gibt (so wie für die entsprechenden Vergleichswerte für den typischen Verbrauch, wenn man diese schon als Vergleich heranzieht.).
 
Zuletzt bearbeitet:
Zurück
Oben