News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

Herdware schrieb:
Vielleicht liegt es daran, dass die G-Sync-Hardware immer noch nicht richtig fertig ist und die FPGAs im Feld per Firmware-Upgrade immer mal wieder nachträglich umprogrammiert werden müssen?
denk ich auch mal. sowas in der Richtung. man experimentiert noch mit dem kram, die Hersteller der Panels ebenenfalls, dazu kommt die vermutlich relativ geringe Stückzahl. Da lohnt vielleicht keine auftragsfertigung von mehreren 100.000 Modulen.
 
@Nilson Wieso haben dann nicht einfach Nvidia Karten einen zusätzlichen proprioritären Datenanschluss drann, den man mit GSync Monitoren verbinden kann, wo in Echtzeit die Hz bzw die Frameinformation ausgegeben wird.
 
Warum sollte man das machen, wenn man es auch über ein Kabel lösen kann?
 
@Nilson Man macht es ja eben nicht so. Im Monitor steckt eine Fette CPU mit RAM die ja scheinbar das Bild analysiert und dann die Hz regelt. Wenn die Hz Information direkt von der GPU käme bräuchte im Monitor keine teure Tchnik stecken.
 
Das müsste der Monitor auch machen, wenn die Informationen über ein anderes Kabel kommen würde. Der muss ja intern seine Pixel variabel ansteuern. Auch AMD hat einen Chip dafür verbaut. Die Frage ist nur, warum NVidia so einen teuren braucht.
 
Weiss nich ob ich des richtig versteh, aber hier https://en.m.wikipedia.org/wiki/FreeSync
ganz unten in der Monitorliste ist ein

Samsung U28E590D. 54 - 64 Hz
und ein
Viewsonic XG3202-C 24-144 Hz

glaub beide mit Freesync, heisst des das beim 32 Zoll Viewsonic das Freesync dann krasser abgeht wie bei GSync mit 30fps ? Hmm waere schon cool.
 
Man wird solche Monitore nur für ein paar Leute bauen die sich das leisten können. Wobei das Problem die Kurzlebigkeit ist.
Ich würde mich freuen wenn CB mal einen Monitordirektvergleich machen würde, damit man sehen kann mit wieviel weniger Euronen man auch ein tolles Bild bekommt.
Für mich sind Monitore jenseits der 500.- aber eh indiskutabel. Von daher wird mich der Test dieses Monitors
nur am rande interessieren.
 
  • Gefällt mir
Reaktionen: Slainer
Marcus Hax0rway schrieb:
Ne. Aber die Diskussion ist ohnehin belanglos, weil es hier nicht um Nvidia geht, sondern um das Marketing von AMD. Scheint ja bei dir gut geklappt zu haben.
Du redest wieder Unsinn, hier geht es um Nvidia GSYNC HDR Modul und du willst es nicht verstehen, dass Nvidia GSYNC Modul einfach zu teuer ist und versuchst die ganze Zeit von der Diskussion abzulenken mit deinem belanglosen angriffen auf AMDs Marketing. Konstruktive Beiträge helfen mehr, als diese ewige Miesmacherei. Stattdessen bist du von Nvidia Marketing so geblendet und spiegelst es auf andere. Das hält dich nicht davon ab um Mitternacht noch einen Angriff auf mich zu starten, statt schlafen zu gehen!

Siehe Beitrag 166 von @Inxession

Zum THema: Fakt ist: Nvidia GSYNC HDR Modul ist zu teuer und braucht eine Kühlung !!!

Mittlerweile unterstützt die Xbox One auch schon FreeSync und da die PS4 ebenfalls aus AMD Technik besteht, wird es wohl nur eine Frage der Zeit sein, wann Sony auch FreeSync unterstützt. Spätesten mit der Sony PS5 wird es vermutlich soweit sein.

Ich frage mich, was Nvidia macht, da der HDMI 2.1 Standard ja Adaptive Sync unterstützt. Wenn also Nvidia HMDI 2.1 auch unterstützt, müssen die nicht dann Adaptive Sync unterstützten oder ist es optional???
 
  • Gefällt mir
Reaktionen: Hill Ridge
joel schrieb:
Ich würde mich freuen wenn CB mal einen Monitordirektvergleich machen würde, damit man sehen kann mit wieviel weniger Euronen man auch ein tolles Bild bekommt.

+1

auch wenn dies eine eher subjektiver Testreiehe wäre, ich persönliche schätze (und teile sehr häufig) die Meinung der Redakteure. Von daher: traut Euch!
 
Palmdale schrieb:
Da bei AMD in Sachen Grafikkarten aber bis mindestens 2019 keine Consumerkarten zu erwarten sind, stellt sich die Frage bei 4k, HDR und bis zu 144hz eh nicht.
Markige Worte, allerdings selbst mit NVidia Karten sind 4K in 144Hz ohne alle Regler nach links zu stellen in AAA Games aktuell Wunschträume. Und selbst wenn die Neu Vorgestellten NVidia Karten 2018 30% mehr Leistung haben, ist man auch noch davon weg.

Falls sich NVidia treu bleibt, und mit der Navi Ankündigung 2019 kann man sich sicher sein, wird die neue TI erst als Störfeuer zu der Vorstellung Navis kommen. Vorher wird eine „2080“ kommen, die gut sein wird, aber keine 4K 144Hz können wird.
Wer glaubt, 2018 diesen Monitor „einsetzten“ zu können, kann auch darauf hoffen, dass der Weihnachtsmann einen vorbeibringt.
 
fdsonne schrieb:
Also mein Samsung UE55HU8590 hat ganz eineindeutig einen Lüfter im Anschlussmodul. Das Ding wird dazu noch wirklich extrem heiß - allen voran bei Darstellung von HighRes Kontent und auch wenn da diverse "Bildverbesserer" aktiv sind - also der Prozessor was zu tun hat. Das Teil hört man... In den oberen Klassen ist das meine ich eher sogar die Regel als die Ausnahme...
Danke für die Info. Gut zu wissen. Ich habe in den letzten Jahren sehr viele Reviews zu TVs gelesen aber davon war bisher noch nie die Rede. Die ganzen OLED TVs haben z.B. keinen Lüfter (oder er ist unhörbar).
 
SavageSkull schrieb:
hier verdrehst du etwas.
Die Technik wurde zum Stromsparen in Notebook Displays verwendet. Nvidia hat für die Spiele Umsetzung das Modul mit Scaler umgesetzt und verkauft das Modul als Zulieferer an Monitor Hersteller bevor hier irgendetwas spezifiziert wurde.
AMD hat als Treiber bei der Vesa um eine Umsetzung der Technik im Display Standard gebeten. Raus kam eine halbgare Definition namens Adaptiv Sync.
Damit allein kann leider niemand etwas anfangen, weder der GPU Anbieter, noch der Grafikkarten Hersteller, noch der Monitorhersteller und schon gar nicht der Endkunde.
Darauf hin hat AMD den proprieäteren Standard "FreeSync" definiert.
Das ist im Prinzip genau die gleiche Schei#e wie bei Nvidia mit den einzigen Unterschied, dass hier der Monitorhersteller sich den Scaler entsprechend Adaptiv Sync selbst aussuchen kann. Führt aber dazu, dass dabei so halbgare Produkte rauskommen, bei denen der Frequenzbereich für Freesync nur sehr eingeschränkt ist.
Nachweis deiner Theorie ?

Quelle:https://www.heise.de/ct/artikel/G-S...ync-Mehr-Wunsch-als-Wirklichkeit-2195186.html
Auch AMD will bei FreeSync das Blanking-Intervall als Teil der Bildlaufzeit variieren und so die Bildwiederholfrequenz insgesamt anpassen. AMD beruft sich dabei auf das Prinzip des Adaptive-Sync im DisplayPort 1.2a respektive eDP und iDP. Auf der CES hatte AMD erklärt, keine extra Hardware für FreeSync zu benötigen.

Deine Aussage das der Frequenzbereich nur sehr eingeschränkt ist soll das wieder in schwachsinnigem gebashe ausarten? Die Specs von Freesync gehen von 9-240Hz somit noch sehr viel weiter als bei G-Sync. Das die Monitorhersteller nur einen kleinen Teil der Spanne nutzbar machen ist nun nicht dem Standard an sich anzulasten. Also bitte wenn du schon einen auf ich weiss was machen willst bitte mit korrekten Angaben.

Korrekt ist aber der Teil:
Adaptive-Sync
Adaptive-Sync ist bereits seit 2009 Bestandteil des von der VESA standardisierten embedded DisplayPort (eDP). Der eDP soll die Panelelektronik in Mobilgeräten, also in Notebooks, Tablets und Smartphones steuern und die bislang übliche LVDS-Anbindung (Low-Voltage Differential Signaling) ersetzen. Allerdings scheint der eDP bislang keineswegs verbreitet.

Mfg
 
Zuletzt bearbeitet von einem Moderator:
Sinnfrei schrieb:
Du bist nicht auf einem aktuellen Stand, oder die grüne Brille trübt den Blick.

Ich glaube eher, Du solltest mal Deine eigene Brille putzen. Dann würdest Du vielleicht erkennen, dass Adaptive V-Sync und Adaptive Sync nicht das selbe sind.

aivazi schrieb:
LFC oder Framedoubling sind dir keine Begriffe ?
Ergo hat der 144 Hz Freesync auch kein Tearing bei 30 FPS, wenn du da einen unterschied sehen kannst dann hast du meinen Respekt :D denn es gibt keinen..^^

Auch Du kennst den Unterschied offensichtlich nicht, ansonsten würdest Du nicht von LFC usw reden.

Krass, wie hier einige gleich abgehen und emotional werden, weil sie denken, dass es um die heilige Freesync-Kuh geht. Dabei hatte ich Freesync nicht einmal erwähnt.
 
ottoman schrieb:
Seit Plasma hat eigentlich kein TV mehr eingebaute Lüfter.

Und genau das ist falsch so ziemlich alle guten TVs in der oberen Liga haben Lüfter gerade wenn es um Local-Dimming geht etc. Mein Panasonic hat 512 Zonen bei 65 Zoll und er hat 4 Lüfter, die Top Modell von Sony haben alle Lüfter selbst die Top-Samsung Geräte haben Lüfter. Einzig die OLED von LG haben soweit ich weiß keine Lüfter die sind dafür aber auch nicht ganz so hell.
 
Und da sitze ich nun, mit meinem 24 Zoll FullHD Monitor der weder G-Sync, Freesync noch HDR hat. Das ding hat gerade mal nur 130€ gekostet und bin mit dem Bild bestens zufrieden. Ggf wird es irgendwann mal ein Minitor mit höherer Auflösung sein. Aber solche Preise für G-Sync, Freesync oder HDR ausgeben? Never!
 
Ein ASIC muss her. Dann kostet das Ding Acht-Euro-Fufzisch wie alles andere.
 
Cl4whammer! schrieb:
Und da sitze ich nun, mit meinem 24 Zoll FullHD Monitor der weder G-Sync, Freesync noch HDR hat. Das ding hat gerade mal nur 130€ gekostet und bin mit dem Bild bestens zufrieden. Ggf wird es irgendwann mal ein Minitor mit höherer Auflösung sein. Aber solche Preise für G-Sync, Freesync oder HDR ausgeben? Never!
Für deine 130€ bekommst du verschiedenste Freesync Monitore mit 24" FHD was dein Kostenargument zumindest bei diesem Punkt geradezu pulverisiert.

Mfg
 
Bumba-Bobby schrieb:
Weiss nich ob ich des richtig versteh, aber hier https://en.m.wikipedia.org/wiki/FreeSync
ganz unten in der Monitorliste ist ein

Samsung U28E590D. 54 - 64 Hz
und ein
Viewsonic XG3202-C 24-144 Hz

glaub beide mit Freesync, heisst des das beim 32 Zoll Viewsonic das Freesync dann krasser abgeht wie bei GSync mit 30fps ? Hmm waere schon cool.


Zum einen ja, der Viewsonic hat einen größeren Bereich als die G-Sync 144 Hz Monitore.
Zum anderen unterliegst du einer falschen Annahme. Die G-Sync 144 Hz Monitore starten das Frame-Doubling bei unter 37 fps. 37 fps -> 37 Hz und 36 fps -> 72 Hz.
Entsprechend lautet es bei 144 Hz G-Sync Monitoren: 37 - 144 Hz
Blurbusters Forum schrieb:
Once the framerate reaches the 36 and below mark, the G-Sync module begins inserting duplicate frames to maintain the display’s minimum physical refresh rate, and smooth motion perception. If the framerate is at 36, the refresh rate will double to 72 Hz, at 18 frames, it will triple to 54 Hz, and so on. This behavior will continue down to 1 frame per second.
Quelle bzw. Beweis: https://forums.blurbusters.com/viewtopic.php?f=5&t=3073

Keine Ahnung weshalb sich dieses Märchen hält, dass 144 Hz G-Sync Monitore erst bei unter 30 fps Frame-Doubling beginnen.

@Cl4whammer!
Die günstigsten Adaptive Sync/FreeSync Monitore beginnen doch bei 100 €. Einen großen Aufpreis muss man da jetzt nicht bezahlen. Aber, dass man dann nicht die Premium-Ausstattung bekommt ist wohl klar.
 
Falls es jemanden interessiert (bin aus der FPGA Branche und habe schon soetwas selber entwickelt):
Das FPGA kostet ca. 1300€. Ich denke, 800€ sind machbar, aber nicht viel weniger. Ist ja nicht so, dass das FPGA in Produktion nur einer 10er kostet ;-)

Jetzt komme ich zum ASIC, der dasselbe viel günstiger machen könnte. NRE lägen wahrscheinlich bei 1-2 Mio (Entwicklung). Dazu noch Masken, Produktion und so weiter -- noch mal eine Mio. Wenn man das Ding erstmal produziert hat, ist ein Jahr (gut schätzt) um -- die Technologie ist weiter... Und man kann nichts mehr ändern :-( Break-Even läge bei 3750 Geräten, die erstmal verkauft werden müssen! Lächerlich kleine Zahl, doch ich denke, die werden niemals so viele davon verkaufen!

So, und jetzt komme ich zu technischen Anforderungen von so einem FPGA und wieso da so ein Schlachtschiff verbaut ist. 3840 Pixel x 2160 Zeilen x 144 fps x 20 Bit pro Pixel (YPrPb, RGBA oder wie auch immer) sind 24 Gigabit oder 3 GByte pro Sekunde nur zum Auslesen! Das Bild muss aber noch erstmal rein in das FPGA, macht +3GByte Banbreite. Dann der Skaler mit ausgefallenen Algorithmen (ist fahrscheinlich intern im FPGA, denn sonst explodiert die Bandbreite).
Dazu kommt noch die Ansteuerung vom Panel, Hintergrundbelechtung, diversen Zonen... Das alles ist sehr aufwendig, was Bandbreite angeht.

Ich vermute, die Monitore werden auch jetzt mit Miese verkauft -- NVidia sponsort quasi die FPGAs und die Entwicklung. Wieso machen die das? Nun ja, um eigene Technologie durchzudrücken (1). Nach und nach wandern viele Funktionen der Grafikkarte in so ein FPGA -- Verdongelung der Grafikkarten und Monitoren (2). Ich denke, eine 1050 ist in so einem FPGA locker unterzubringen (samt vielleicht diversen ARM-Cores)... ja ja... man bräuchte nicht mal eine Grafikkarte dann! Quasi im laufenden Betrieb können viele neue Technologien ausprobiert werden (3). Irngendwann in der Zukunft, packt NVidia dann alles in ein ASIC (wenn es sich dann richtig lohnt) und dann gibt es keinen Weg zurück zu z.B. AMD.

Ich persönlich bin weder Spieler, noch brauche ich 4K144 HDR. Ich hoffe, dass NVidia und Monitorhersteller bleiber darauf sitzen. Es sei dem, sie "öffnen" das FPGA (Firmware, Bitfiles und so weiter). Das wiederrum bringt die Hersteller (und die Community) dazu, eigene Features zu implementieren (Bild-im-Bild, H265 Encoding, ...).
 
  • Gefällt mir
Reaktionen: chithanh
Lübke82 schrieb:
Wieviele hier wieder jammern. Dann kauft doch den AMD-Quatsch einfach. HDR mit 1000Nits + Sync bis 30Hz runter und 144Hz wird es allerdings dort niemals geben. Nvidia hat hier nunmal weiterhin die beste erhältliche Technik parat und die kostet nunmal Geld. Was denkt ihr denn was die BFGDs kosten werden? Das ist nunmal nichts für AMD-Knauser.
Bist wohl mit dem falschen Bein aufgestanden? Ich denke eher, dass es "nvidia Knauser" sind und keine "AMD Knauser", denn die werden sich kaum für G-Sync interessieren. ;)
Und sorry, ich gehöre dazu. Ich bin gerne bereit, auch mal ein oder zwei Euro mehr auszugeben, gerade bei Sachen, die ich länger habe. Aber fast 3000 Eur für einen "schnöden Monitor" (nicht mal OLED) aufzurufen, ist einfach out of Range. Da sind auch 144hz (die man ohnehin nicht nutzen kann) und 4k keine überzeugenden Argumente. Halbwegs brauchbare 4k Monitore gibt es ab 250 Eur. Warum muss das Topmodell das 10 Fache kosten? Viele Kunden wird man so sicher nicht generieren, was man wahrscheinlich auch nicht will. Das wird überwiegend ein Papiertiger bleiben, den man kaum im Laden zu sehen bekommen wird.
Interessant wären 1000 bis 1500 Eur und vielleicht sogar als 32 Zoll. Da würde ich wahrscheinlich schwach werden. So warte ich weiter und meine GTX 1080 langweilt sich einfach noch ein bisschen.
 
Zurück
Oben