News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

Dark-Silent schrieb:
Deine Aussage das der Frequenzbereich nur sehr eingeschränkt ist soll das wieder in schwachsinnigem gebashe ausarten? Die Specs von Freesync gehen von 9-240Hz somit noch sehr viel weiter als bei G-Sync. Das die Monitorhersteller nur einen kleinen Teil der Spanne nutzbar machen ist nun nicht dem Standard an sich anzulasten

Nö, sondern eher der Physik und Elektrotechnik. Ich möchte mal die Leuchtelemente in einem Monitor sehen die sowohl 1/9 Sekunde lang wie auch 1/240 Sekunde lang mit Strom befeuert werden können ohne durchzubrennen.

kest schrieb:
Jetzt komme ich zum ASIC, der dasselbe viel günstiger machen könnte. NRE lägen wahrscheinlich bei 1-2 Mio (Entwicklung). Dazu noch Masken, Produktion und so weiter -- noch mal eine Mio. Wenn man das Ding erstmal produziert hat, ist ein Jahr (gut schätzt) um -- die Technologie ist weiter... Und man kann nichts mehr ändern :-( Break-Even läge bei 3750 Geräten, die erstmal verkauft werden müssen! Lächerlich kleine Zahl, doch ich denke, die werden niemals so viele davon verkaufen!

Das ist jetzt aber schon sehr stark über den Daumen gepeilt, oder? Ich glaube auch kaum dass 3750 Geräte ne ASIC Entwicklung vs FPGA auf +- 0 bringen. Oder verstehe ich dich da falsch?
 
Zuletzt bearbeitet:
EDIT: Wenn die Bauteile so teuer sind, wie KEST sagt, dann bleibt das wohl ein Exot.
 
DocWindows schrieb:
Nö, sondern eher der Physik und Elektrotechnik. Ich möchte mal die Leuchtelemente in einem Monitor sehen die sowohl 1/9 Sekunde lang wie auch 1/240 Sekunde lang mit Strom befeuert werden können ohne durchzubrennen.

Habe einen UHD 27" LG IPS Monitor mit Freesync der mit Treibermod auf 10-60Hz Syncspanne läuft also verzeih mir wenn ich von deiner Aussage und Kenntnissen nicht viel halte ausser blödes Gewäsch.

Edit:
Hier Nachzulesen
http://extreme.pcgameshardware.de/n...-21-9-a-2.html?highlight=27MU67-B#post8148914
Post #53
 
Zuletzt bearbeitet von einem Moderator:
Dark-Silent schrieb:
also verzeih mir wenn ich von deiner Aussage und Kenntnissen nicht viel halte ausser blödes Gewäsch.

10 bis 60 Hertz sind dann doch noch etwas weniger krass als 9 bis 240 Hertz, oder?
50 Hertz Range vs. 231 Hertz Range.
 
cor1 schrieb:
Auch Du kennst den Unterschied offensichtlich nicht, ansonsten würdest Du nicht von LFC usw reden.

Krass, wie hier einige gleich abgehen und emotional werden, weil sie denken, dass es um die heilige Freesync-Kuh geht. Dabei hatte ich Freesync nicht einmal erwähnt.

Also Allwissender Wohltäter.

Warum zum Teufel schreibst du dann, in diesem Thread von Adaptive V-Sync ??? das ist doch schnurz egal hier geht es schließlich nur um G-Sync und Adaptive Sync..... Das adaptive V-Sync nicht zu gebrauchen ist, zeigt alleine die Tatsache dass es bereits bessere Synchronisations Techniken gibt.
Zumal deine Aussage sehr Waage im Kontext mit der 30 FPS Grenze und Tearing gesetzt wurde.
Zumal Beefsupreme sich definitiv verschrieben haben muss, da er Adaptive Sync gemeint haben muss.. Adaptive V-Sync kommt schließlich von Nvidia und würde seine Aussage komplett ad absurdum drehen.

Also keinen Grund zu arschig zu sein....
 
DocWindows schrieb:
10 bis 60 Hertz sind dann doch noch etwas weniger krass als 9 bis 240 Hertz, oder?
50 Hertz Range vs. 231 Hertz Range.
Hauptsache irgendwas gelabert. Wenn ich deine ja so unwahrscheinlich guten Physikkenntnisse nach unten schon Lügen gestraft habe wirds mit den 240Hz wohl eher genauso sein. Ein Monitor mit 240Hz Refreshrate wie sie schon zu kaufen sind dem ist es egal ob er sie Sync oder Unsync ausgibt schon mal drüber nachgedacht?
 
Zuletzt bearbeitet von einem Moderator:
kest schrieb:
Falls es jemanden interessiert (bin aus der FPGA Branche und habe schon soetwas selber entwickelt):
Das FPGA kostet ca. 1300€. Ich denke, 800€ sind machbar, aber nicht viel weniger. Ist ja nicht so, dass das FPGA in Produktion nur einer 10er kostet ;-)

Zitat gekürzt ................ .

Ich vermute, die Monitore werden auch jetzt mit Miese verkauft -- NVidia sponsort quasi die FPGAs und die Entwicklung. Wieso machen die das? Nun ja, um eigene Technologie durchzudrücken (1). Nach und nach wandern viele Funktionen der Grafikkarte in so ein FPGA -- Verdongelung der Grafikkarten und Monitoren (2). Ich denke, eine 1050 ist in so einem FPGA locker unterzubringen (samt vielleicht diversen ARM-Cores)... ja ja... man bräuchte nicht mal eine Grafikkarte dann! Quasi im laufenden Betrieb können viele neue Technologien ausprobiert werden (3). Irngendwann in der Zukunft, packt NVidia dann alles in ein ASIC (wenn es sich dann richtig lohnt) und dann gibt es keinen Weg zurück zu z.B. AMD.

Das klingt ziemlich abenteuerlich, mit Miesen verkaufen die Monitorhersteller es bestimmt nicht, dazu ist der Wettbewerb zu groß und NVIDIA wird da bestimmt nichts subventionieren, weshalb auch.
Zudem haben wir schon einen Industriestandard, der nennt sich Adaptive Sync und ist in HDMI 2.1 eingeflossen, ebenfalls in Displayport 1.2a.

Nichts für ungut, klingt nach Verschwörungstheorie.

Das du da aus der Branche kommst, netter versucht, aber macht die Sache auch nicht glaubwürdiger!
 
erstmal muss der Monitor 6 Monate bei nem Dauerspieler durchhalten ... aber mit Lüfter? scheinen nur auf dumme Käufer aus zu sein...
 
kest schrieb:
Ich vermute, die Monitore werden auch jetzt mit Miese verkauft -- NVidia sponsort quasi die FPGAs und die Entwicklung. Wieso machen die das? Nun ja, um eigene Technologie durchzudrücken (1). Nach und nach wandern viele Funktionen der Grafikkarte in so ein FPGA -- Verdongelung der Grafikkarten und Monitoren (2). Ich denke, eine 1050 ist in so einem FPGA locker unterzubringen (samt vielleicht diversen ARM-Cores)... ja ja... man bräuchte nicht mal eine Grafikkarte dann! Quasi im laufenden Betrieb können viele neue Technologien ausprobiert werden (3). Irngendwann in der Zukunft, packt NVidia dann alles in ein ASIC (wenn es sich dann richtig lohnt) und dann gibt es keinen Weg zurück zu z.B. AMD.

Das ist doch Super absurd, wenn die Funktionen der Grafikkarte in den FPGA eines Monitores wandern... alleine einen zweiten Chip zu verbauen und eine Platine etc. der programmier Aufwand. Das alles hat überhaupt keine Daseinsberechtigung, wenn das AMD mit einem Scaler im Monitor hinbekommt.

Das ist komplett am Markt vorbei entwickelt... statt den Standard massentauglich zu machen, wird dieser Massenuntauglich gemacht, dass ist so ein klassisches Ding von Nvidia :D Hauptsache 5 Leute haben 1 Jahr vor allen anderen einen 4 K HDR 144 Hz Monitor....
 
FirstJune schrieb:
Ich frage mich, was Nvidia macht, da der HDMI 2.1 Standard ja Adaptive Sync unterstützt. Wenn also Nvidia HMDI 2.1 auch unterstützt, müssen die nicht dann Adaptive Sync unterstützten oder ist es optional???

Soll wohl optional, also keine notwendige Voraussetzung sein.
Aber was würde es positiv verändern wenn nVidia Adaptive Sync unterstützen würde?
Bei AMD würde ein Alleinstellungsmerkmal wegfallen, was einen echten Kaufgrund darstellt.
Darüber hinaus kann nVidia ja kein (mittlerweile bekanntes) FreeSync unterstützen, weil das ein AMD Markenname ist. Sie müssten sich einen eigenen Namen für ihre eigene Implementation ausdenken.
Zum Beispiel G-Sync Lite.
Das würde natürlich auch marketingtechnisch gepusht, und ich brauch ja wohl nicht zu erwähnen was das bei nVidias Marketingmaschinerie und einem Grafikkartenanteil (dediziert) von 70 - 30 bedeutet.
 
DocWindows schrieb:
Aber was würde es positiv verändern wenn nVidia Adaptive Sync unterstützen würde?

Dann müsste man sich beim Kauf seines Monitors keine Gedanken bezüglich Grafikkarte machen ?...
Alleine diese Tatsache ist schon so bescheuert, dass ich 4 Leuten zum Kauf eines RX 480/580 geraten habe.
Schließlich kauft sich der Dau einen Monitor der HÖCHSTENS 300 € kostet.. Ergo kommen die meisten Nvidia Nutzer nie in den Genuß von G-Sync, die finanzielle Hürde ist einfach viel zu hoch und trennt bewusst die Käufer zwischen jene die viel bezahlen können/wollen und eben nicht.

Das löst Freesync wesentlich eleganter mit einer wesentlich breiter gefächerten Auswahl.^^
 
aivazi schrieb:
Das ist doch Super absurd, wenn die Funktionen der Grafikkarte in den FPGA eines Monitores wandern...

So extrem absurd ist die Idee gar nicht wenn man sich mal die aktuellen Benutzertrends anschaut.
Der Trend geht eindeutig zu Mobilgeräten jeder Art, welche oft keine leistungsstarken Grafikkarten mitbringen. Externe Grafikkarten wie sie in den letzten Jahren aufgetaucht sind und einfach per Thunderbolt an den Laptop angeschlossen werden waren doch früher total undenkbar.

Für Benutzer die eine externe Grafikkarte für Ihren Laptop in Betracht ziehen wäre eine Lösung mit der Grafikkarte im externen Monitor prinzipiell nicht viel schlechter. Ob man nun x00€ für das externe Gehäuse inkl. Stromversorgung ausgibt oder direkt einen Monitor kauft der die Grafikkarte integriert ist nun nicht der Unterschied, bzw. der Monitor wäre für die Käuferschicht sicher eine deutlich attraktivere Variante.

In Zukunft holst du einfach dein Smartphone raus, schließt es per USB/Thunderbolt an den Monitor an und kannst in HD zocken.
 
DocWindows schrieb:
Soll wohl optional, also keine notwendige Voraussetzung sein.
Aber was würde es positiv verändern wenn nVidia Adaptive Sync unterstützen würde?
Bei AMD würde ein Alleinstellungsmerkmal wegfallen, was einen echten Kaufgrund darstellt.
Darüber hinaus kann nVidia ja kein (mittlerweile bekanntes) FreeSync unterstützen, weil das ein AMD Markenname ist. Sie müssten sich einen eigenen Namen für ihre eigene Implementation ausdenken.
Zum Beispiel G-Sync Lite.
Das würde natürlich auch marketingtechnisch gepusht, und ich brauch ja wohl nicht zu erwähnen was das bei nVidias Marketingmaschinerie und einem Grafikkartenanteil (dediziert) von 70 - 30 bedeutet.
Wiso wird immer vom AMD Alleinstellungsmerkmal geredet? Freesync Specs sind Teil des offenen für jedes Unternehmen frei zugänglichen Lizenzkostenfreien Vesa Standards geworden. NV könnte Freesync genauso nutzen nur wollen sie das einfach nicht. Ausser im NB Sektor hier wird es von NV nur nicht als Freesync vermarktet aber teilweise genutzt. Intel hat soviel ich noch weis eine Freesync Unterstützung in Aussicht gestellt bzw. kann seit der Coop mit AMD bei diesen Produkten wohl auch schon damit umgehen.
 
aivazi schrieb:
Dann müsste man sich beim Kauf seines Monitors keine Gedanken bezüglich Grafikkarte machen ?..

Du musst schon auf alles Bezug nehmen was ich geschrieben habe und nicht nur auf die Einleitung. Ich betrachte diese einleitende Frage doch ersichtlich aus Sicht der beiden großen Hersteller und nicht aus Sicht des Kunden.
Das der Kunde dadurch allein duch die größere Hardwareauswahl profitieren würde versteht sich ja von selbst.

Dark-Silent schrieb:
NV könnte Freesync genauso nutzen nur wollen sie das einfach nicht.

Nein, nVidia kann Adaptive Sync unter eigenem Markennamen verwenden aber nicht FreeSync. FreeSync ist immer noch AMDs Trademark. Theoretisch könnte man den Namen nutzen wenn man ihn lizenziert. Intel könnte das z.B. machen. Allein schon im Rahmen der von AMD eingekauften GPU-Parts für CPUs. Aber nVidia wird das niemals tun.
 
Zuletzt bearbeitet:
Flaimbot schrieb:
die tatsache, dass irgendein genie bei NoVideo© auf die schnappsidee kam da ein fpga reinzuhauen, anstatt einen ASIC zu entwickeln.
Und du wärst wahrscheinlich auf die Idee gekommen gleich zu Anfang der Produktentwicklung einen millionenschweren Auftrag für einen ASIC zu vergeben den du in riesen Stückmengen abnehmen musst nur um dann festzustellen, dass der anschließend Bugs enthälst, die du nicht mehr fixen kannst.

Teralios schrieb:
Dass er da zum Teil dem üblichen Marketing-Blub der Hersteller erliegt, erkennt er nicht wirklich.
Fakt ist, dass du Overdrivealgorithmen nicht per Treiber beeinflussen kannst sondern nur im Scaler vernünftig steuern kannst. Das hat nichts mit Marketing-Blub zu tun. Overdrive-Probleme

Es stimmt zwar, dass Hertz erst mal 1/s bedeutet, aber Hertz ist nicht die Einheit von Frames/s. Es gibt nämlich eine sehr wichtige Einschränkung ab wann Hertz wirklich die Einheit ist. Hertz ist periodisch.
In der Digitaltechnik ist nichts mehr periodisch, es sei denn du willst mir erzählen deine 3 GHz CPU arbeitet periodisch.
Neben der klassischen SI Definition ist Hertz in der Digital-Technik mittlerweile auch als Events/Sekunde definiert. Das muss nicht zwangsläufig in Wellenform vorliegen und periodisch sein.

Und angenommen die Periodizität wäre ein Argument warum man die Einheit nicht verwenden darf, dann dürfte man adaptive Sync Monitore auch nicht mehr in Hertz messen.
Also entweder darf man FPS und Hz synonym verwenden oder Hertz überhaupt nicht mehr. Eines von beidem geht nur.

Theoretisch kann es der Bereich ab 9Hz bis hinauf zu 240 Hz sein.
Das Problem sind hier die Hersteller der Monitore, da sie entsprechende Scaler nicht verbauen.
Was aber in der Praxis auf das Gleiche hinausläuft.
Theoretisch ist so vieles möglich, was in der Praxis nicht passiert. Wichtig ist letztendlich was du auf dem Markt kaufen kannst und da bezahlt man bei GSync Monitoren ja eben den zusätzlichen Aufpreis für den besseren Scaler.

Auch hier: Das Problem hat nichts direkt mit FreeSync zu tun, sondern ist einmal den Freiheiten geschuldet, die AMD den Herstellern lässt
Das klingt so als ob es was Gutes wäre. Eine Anarchie ist auch eine Gesellschaft voller Freiheiten.
 
Dark-Silent schrieb:
Freesync Specs sind Teil des offenen für jedes Unternehmen frei zugänglichen Lizenzkostenfreien Vesa Standards geworden.
Nein.

NV könnte Freesync genauso nutzen
Sie können Adaptive Sync nutzen.

Ausser im NB Sektor hier wird es von NV nur nicht als Freesync vermarktet
Dürfen sie ja auch nicht.

Intel hat soviel ich noch weis eine Freesync Unterstützung in Aussicht gestellt
Sie haben Adaptive Sync in Aussicht gestellt.
 
noxon schrieb:
Und du wärst wahrscheinlich auf die Idee gekommen gleich zu Anfang der Produktentwicklung einen millionenschweren Auftrag für einen ASIC zu vergeben den du in riesen Stückmengen abnehmen musst nur um dann festzustellen, dass der anschließend Bugs enthälst, die du nicht mehr fixen kannst.
Klingt ja so, als ob die Entwicklung eines Chips ein Ding der Unmöglichkeit wäre. Für so etwas gibt es Steppings. So viel kann man einer Firma wie nVidia schon zutrauen.
 
ottoman schrieb:
Klingt ja so, als ob die Entwicklung eines Chips ein Ding der Unmöglichkeit wäre. Für so etwas gibt es Steppings.

Es ist nicht eine Frage der Möglichkeiten, sondern eine Frage der Wirtschaftlichkeit.
ASICs haben hohe Fixkosten, dafür aber später geringe Stückkosten in der Produktion.
FPGAs haben niedrige Fixkosten, dafür aber hohe Stückkosten.
ASICs sind sparsam, FPGAs nicht (10-fache Effizienz von ASICs gegenüber FPGAs)

Da muss man halt abwägen ob sich das Auflegen einer ASIC Serie für die geplante Stückzahl an Monitoren lohnt oder nicht. Dass hier FPGAs verwendet werden deutet darauf hin, dass die Monitore in sehr geringen Stückzahlen aufgelegt werden. Vermutlich weil sie eher eine kaufbare Machbarkeitsstudie sein sollen als ein groß angelegtes Massenprodukt.

Vielleicht kommt die zweite Generation dieser Monitorklasse dann mit ASICs und ist 500 Euro billiger. Möglicherweise sind dann die anderen Komponenten auch schon billiger geworden und du bekommst so ein Ding für 1500. Early-Adopters und Enthusiasten mussten schon immer "mehr" bezahlen und die machen das auch gern.

Anstatt zu Heulen dass alles so teuer und so unfair usw. ist, freue ich mich einfach dass es technisch voran geht. Auch wenn ich mir die erste und vielleicht sogar zweite Generation dieser Geräte wohl eher nicht kaufen werde.
 
  • Gefällt mir
Reaktionen: noxon und Flaimbot
DocWindows schrieb:
Darüber hinaus kann nVidia ja kein (mittlerweile bekanntes) FreeSync unterstützen, weil das ein AMD Markenname ist. Sie müssten sich einen eigenen Namen für ihre eigene Implementation ausdenken.

FreeSync kann Nvidia natürlich nicht unterstützen. Da hätte wohl auch AMD etwas dagegen. ;)

Eine eigene, auf den VESA-Standard Adaptive Sync aufsetzende Technik, wäre aber sehr wohl möglich. (Und gibt es wohl sogar auch schon von NVidia für bestimmte Notebooks.) Die kann Nvidia dann nennen wie sie wollen. Z.B. auch einfach beim Namen G-Sync bleiben. Auch wenn das für Verwirrung bei den Besitzern von dann inkompatiblen, herkömmlichen G-Sync-Karten und Monitoren sorgen würde, aber sowas hat nicht nur Nvidia ja nie abgehalten. :evillol:

Ich glaube, manche kommen da eh schon durcheinander, wenn es darum geht auseinanderzuhalten, was Adaptive Sync, FreeSync und G-Sync sind. Also was davon ein freier VESA-Standard ist (Adaptive Sync), was die jeweiligen, propritären Technologien von AMD und Nvidia (FreeSync und G-Sync) und was die miteinander zu tun haben oder auch nicht.

Adaptive Sync allein sorgt noch nicht für mit der GPU-Ausgabe synchronisierte Bildfrequenzen. Es ist nur eine Erweiterung der Anschlussstandards Displayport und demnächst auch HDMI, die man unter anderem für sowas (aber auch anderes, wie z.B. Stromsparen durch Absenken der Bildfrequenz) nutzen kann.

Zu synchronisierten Frameraten gehört nochmal einiges mehr, das vom GPU-Hersteller kommen muss und deren propritäre Technik ist.
AMD nutzt Adaptive Sync für sein FreeSync. Nvidia hat damals als Teil von G-Sync seine eigene, propritäre Erweiterung für DP gebastelt. (Adaptive Sync gab es noch gar nicht, als Nvidia G-Sync entwickelt hat.)
 
Herdware schrieb:
FreeSync kann Nvidia natürlich nicht unterstützen. Da hätte wohl auch AMD etwas dagegen.

Wenn AMD schlau wäre, hätten sie nichts dagegen. Sollte nVidia eine eigene Adaptive Sync Implementation mit anderem Namen ankündigen, wäre das meiner Meinung nach verheerend für die Verbreitung des Begriffs FreeSync. Allein schon durch die Marktführerschaft beim Gaming und die Marketingmöglichkeiten die nVidia hat. Wer sowas wie GPP auflegt, der presst auch sein eigenes AS-Kram in den Markt und zwar solange bis das Konkurrenzprodukt niemand mehr kennt.
 
Zuletzt bearbeitet:
Zurück
Oben