News FreeSync-Monitore zum Jahreswechsel im Handel

Das Problem ist nicht was du machen würdest. Es gibt allerdings keinen Grund für Monitor-Hersteller ein schlechteres und dafür teureres Bauteil zu verbauen - warum sollten die das tun?
 
Warum sollten sie keine Panels und Leergehäuse mit Eigenwerbung liefern, wenn der Kunde den Aufpreis bezahlt und Nvidia die Entwicklung ?
 
Zunächst einmal muss die Kundenbasis gross genug sein die eine Aufpreis für nichts bezahlt. Das wäre vielleicht gut gegangen bevor ASync in den VESA-Standard aufgenommen wurde. Und dann muss der Monitorhersteller das Risiko tragen ob das Produkt genügen Käufer findet. Warum sollte er das tum? Es gibt nichts das GSync besser kann als ASync.

Die Argumentation "Wenn der Kunde den Aufpreis bezahlt" ist ja recht nett, doch wohl kaum realistisch. Es fragt sich immer ob genügend Kunden den Aufpreis bezahlen um das ganze profitabel zu machen eine komplette Produktlinie zu kreiren. Die meisten wissen einfach nicht wie die Entscheidungsprozesse laufen bei Hardwareherstellern, oder haben da einfach nicht kapiert, dass diese völlig anders sind als bei Endkunden.

Gsync ist "Dead-on-arrival", finde dich damit ab, denn es ist die Realität, oder wie jemand anders sagen würde: das ist Fakt. Es gibt nicht ein einziges Argument das einen Monitorhersteller dazu bewegen könnte Gsync weiterhin zu verbauen. Es sprechen deutlich zu viele dagegen ein solches Produkt weiter zu fördern - die wollen Geld verdienen und nicht Nvidias Kassen füllen.
 
Daedal schrieb:
Wie soll ich denn eine Frage beantworten mit einer falschen Prämisse? Die Objektiven Belege sind doch alle vorhanden. Du hast dich nur entschlossen nicht auf die Links zu klicken und es zu ignorieren.

Burnt. :D
 
Ich würde die Situation von G-Sync nicht ganz so schwarz malen wie Daedal. G-Sync funktioniert und hat unbestreitbare Vorteile gegenüber klassischem VSync.

Natürlich wird G-Sync unter Druck kommen, wenn die von AMD versprochenen günstigeren Adaptive-Sync-Monitore auf den Markt kommen. Hier wird es wichtig sein, wie schnell NVidia die teuren FPGAs durch ASICs ersetzen kann um Kosten zu sparen, und ob die Beschränkung auf TN-Panels überwunden werden kann, um im IPS (oder gar PLS/VA)-Markt mitzumischen.

Es sind also zwei Szenarien denkbar: Entweder G-Sync und Adaptive-Sync bestehen beide nebeneinander weiter, oder Adaptive-Sync wird G-Sync vom Markt verdrängen.
 
Ich persönlich glaube nicht, dass es jemals ASICs gebe wird für GSync. Die Entwicklungskosten und Fertigung wird wohl nicht auf genügend Stückzahlen kommen um das anzugehen. Wäre FreeSync nicht so schnell gekommen, hätte man diese Hürde vielleicht nehmen können. Doch jetzt ist der Aufpreis einfach nicht zu rechtfertigen, vor allem da die Featurliste nicht länger ist, sondern deutlich kürzer als bei normalen Monitoren mit DP 1.3.

Es gibt einfach keinen einzigen Mehrwert für den höheren Preis und stattdessen fehlen eine Menge Möglichkeiten des Scalers. Also nicht mit der derzeitigen Featureliste der GSync-Scaler...da muss viel aufgeholt werden gegenüber der Scaler-Konkurrenz und bis dahin ist es einfach obsolet weil es auch noch Lizenzgebühr kostet.
 
Zuletzt bearbeitet:
Daedal schrieb:
Es gibt nichts das GSync besser kann als ASync.

Warten wir's ab. Es kommt mir etwas seltsam vor, dass sich so kurz vor dem angeblichen Verkaufsstart m.W. noch kein einziges Vorseriengerät in irgendeine Testredaktion verirrt hat. Ein erfolgreicher Test würde sich positiv auf das Weihnachtsgeschäft mit Radeon-Karten auswirken. Die Geheimniskrämerei macht keinen Sinn, es sei denn, es gibt da einen Haken...

Diese Hürde gilt es zu meistern.

Nebenbei: wo steht eigentlich geschrieben, dass in den aktuell verkauften G-Sync-Monitoren immer noch FPGAs verbaut sind ? Die mir bekannten Informationen bezogen sich auf den umgebastelten Asus-Versuchsballon, der nur in homöopathischen Dosen die Shops erreicht hat, und seit einiger Zeit überhaupt nicht mehr verkauft wird.
 
Ja, weil sich ständig Vorserien-Monitore in die Redaktionen verirren. Wann hast du überhaupt mal einen Monitor-Test gesehen vor erscheinen auf dem Markt?

Und solange Nvidia nicht bekannt gibt, dass sie jetzt ASICs verwenden kannst du getrost von FPGAs als Status Quo ausgehen. Die Pressemitteilung wäre wohl 8 Wochen vor Fertigstellung des ersten Chips raus bei Nvidias Marketing-Stil.
 
Siehe oben - der erste Teil des Blurbusters-Tests ist vom 12.12.13, Testgerät war...

a prototype preview (test) version of a modified ASUS VG248QE

Und warum sollte Nvidia einen für die Funktion belanglosen und für den Normalanwender unverständlichen Optimierungsschritt in der Presse breit treten ? Damit die Interessenten die Preissenkung abwarten ?
 
Das getestete Modell war mit dem Selbstbausatz. Daher ein Prototyp. Da es sonst niemanden gibt der die Scaler in eine separates Modul verbaut hat, wie das Nvidia gemacht hat, ist das wohl schlicht nicht möglich.

Den Satz nach dem Zitat verstehe ich beim besten Willen nicht. Nicht einmal worum es geht.
 
Was ist daran schwer zu verstehen ?

ASIC = billiger, Funktion gleich => Kaufinteressent erwartet Preissenkung, wenn er von der Umstellung erfährt.

Pressemitteilung hätte nur Nachteile für Nvidia => es gibt keine.
 
Zu behaupten, dass Nvidia den zwingend notwendigen Schritt in der technischen Fertigung zum ASIC, wovon das ganze GSync-Programm abhängig ist, geheim hält um für den schlechteren FPGA mehr Geld verlangen zu können ist wirklich ein neuer, noch nicht gesehener, Höhepunkt. Ich wüsste nicht mal wo ich in dieser Behauptung nach dem "A" von Argument suchen sollte....

Keine Ahnung was mich mehr erstaunt. Dass man dies irgendeinem Unternehmen überhaupt zutraut, welches ein Aktienunternehmen ist (Und damit transparent was Entwicklungs- und Fertigungskosten angeht), oder dass es jemanden gibt der das öffentlich in einem Forum als Argument nutzt um Nvidia als solche Abzocker darzustellen mit dem Zweck sie IN SCHUTZ zu nehmen. Willst du wirklich als Nvidia Käufer, dass sie sich so verhalten? Und du sagst hier auch noch öffentlich, dass du deswegen deren Produkte kaufen würdest.

Ich vermute du hast irgendwie eher den Überblick verloren was du hier versuchst zu verteidigen - hab ja schon sehr viel skurriles gelesen...aber naja...das Internet ist gross.
Ich halte es glaube ich in diesem Zusammenhang mit dem berühmten Zitat von Albert Einstein:
"Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit, aber bei dem Universum bin ich mir noch nicht ganz sicher"
 
Du hast es immer noch nicht begriffen.

Die Preissenkung wird kommen, aber warum sollte man den technischen Grund dafür nennen ? "Überraschung" wirkt doch viel besser.

Und warum sollte man den Preis zu früh senken, wenn die Konkurrenz nicht aus den Puschen kommt ? Das würde AMD genausowenig machen.
 
Wen interessieren 2 Watt ? Das Ding verbraucht trotzdem nur halb so viel Strom wie mein alter 22er mit CCFL-Beleuchtung.
 
Niemanden.... ^^
Ergänzung ()

PiPaPa schrieb:
Witzig das jetzt wieder der Verbrauch irrelevant ist, wo doch damit immer argumentiert wird.

Daedal schrieb:
Also interessiert GSync Käufer Effizienz nicht. Ein Argument weniger für Maxwell. Entweder Effizient oder Gsync mit 135 € Aufpreis.

CyberdyneSystem schrieb:
Da musste ich nun aber auch schmunzeln
Bei Grafikkarten ist jeder einzelne Watt weniger ein Kaufargument. das gleiche bei CPUs aber beim Thema Gsync ist es wieder irrelevant :D

Ich jedenfalls bin auf die ersten Monitore mir FreeSync gespannt und dann wird man sehen wie gut die wirklich sind.
PS: Ich werde anfangs nicht zur Käuferschicht gehören, denn mein jetziger Monitor ist erst ein paar Monate Jung/Alt. Aber 120Hz mit AH-IPS und FreeSync wäre echt was feines ;)
 
Zuletzt bearbeitet:
War der Absolutwert nicht Wink mit dem Zaunpfahl genug ? OK, hier ist der ganze Zaun:

Leistungsaufnahme der G-Sync-Monitore laut c't-Test: um die 21 Watt (Asus ROG: 29 Watt). 10% davon macht also ca. 2 Watt Unterschied.

Unterschied zwischen R9 290X und etwa gleich schneller GTX 970 unter Last: 130 Watt

Nebeneffekt: 20 dB(A) mehr Lüfterkrach.
 
Kein Problem, dass die Prioritäten je nach Status der Diskussion in das Gegenteil drehen - je nach Bedarf - ist mir schon lange nicht neu bei Diskussionen mit Trollen und Fanboys. Man merkt das daran wenn sie nicht mal mehr selber behaupten Argumente zu haben sondern nur noch mit irgendwelchen Gartenteilen winken.
 
Zurück
Oben