News Odyssey OLED G6 (G60SF): Samsungs Gaming-Monitor mit 500 Hz kommt im 2. Halbjahr

Kuestennebel79 schrieb:
Da macht Multi FG macht richtig Sinn. Interessant mal live zu erleben, wie groß der Unterschied bspw. zu meinem 165 OLED HZ sind
Aber das sind doch Fake-Frames!!!11
 
Shoryuken94 schrieb:
Auf der einen Seite wollen alle immer mehr Raw Performance, auf der anderen Seite will aber auch keiner 600+ Watt GPUs, die unweigerlich die Konsequenz daraus sind. Riesige Chips in aktuellen TSMC Fertigungsverfahren + PCBs und Kühler die solche Chips benötigen wollen auf die wenigsten bezahlen.
Wenn man die Gewinnmargen bei Nvidia sich anguckt, dann zweifelt man schon "wie teuer" die Hardware an sich sein soll bzw. ist.

600W nicht zu wollen hat mehrere Gründe.

1) Man sieht bei Nvidia nur "die Brechstange", sodass ihr Zugewinn an Leistung nur über "Verbrauch" erkauft wird. Zumindestens hat es den Anschein.

2) Der Stecker hat sich auch nicht mit Ruhm bekleckert und Nvidia hat natürlich auch drauf geritten, dass die "Käufer" die Dummen sind, die mit Kabeln nicht umgehen können.


Shoryuken94 schrieb:
Entwicklungskosten für bessere KI Modelle sind unterm Strich auch für den Kunden günstiger, als 500 Watt Mittelklassegrafikkarten für vierstellige Beträge, weil man nicht an der Hardware gespart hat.
Der Satz an sich macht so keinen Sinn. Damit Nvidia an der Hardware "sparen" kann and Klassen -60, -70, -80 downgraden kann, sind KI-Modelle ein Segen.

Zu DLSS/FSR: Ja, sind gute Erfindungen, die uns mit "schwacherer" Hardware höhere Auflösungen versprechen bzw. ermöglichen können, aber es hinterlässt einen faden Beigeschmack, dass die eigentliche Intention eben "Kostenersparnisse" waren/sind.
 
Zuletzt bearbeitet:
marco490 schrieb:
Wozu immer mehr hz? Ich dacht das Auge wird ab 160hz sowieso kaum bis gar kein Unterschied mehr machen.
Woher hast du die 160 Hz?
 
@Eorzorian
Wenn man die Gewinnmargen bei Nvidia sich anguckt, dann zweifelt man schon "wie teuer" die Hardware an sich sein soll bzw. ist.

Richtig, aber bei deutlich steigenden Produktionskosten wird Nvidia nicht gleichzeit deutlich auf Marge verzichten. Damit würde Spielern am Ende aber auch nur wenig geholfen werden, denn wenn die Speicherausstattung auch der Leistung angemessen wäre, wären die Karten ziemlich beliebt bei diversen AI Kunden und die Markpreise hoch.

Man sieht bei Nvidia nur "die Brechstange", sodass ihr Zugewinn an Leistung nur über "Verbrauch" erkauft wird. Zumindestens hat es den Anschein.

Mehr Transistoren brauchen mehr Strom, wenn Sie halbwegs ordentlich takten sollen. Mit immer besseren Fertigungsmethoden bekommt man immer mehr Transistoren auf die gleiche Fläche und damit auch immer höhere Leistungsaufnahmen, selbst wenn man Sie konservativ taktet. Ist aber bei AMD auch nicht anders.

Der Satz an sich macht so keinen Sinn. Damit Nvidia an der Hardware "sparen" kann and Klassen -60, -70, -80 downgraden kann, sind KI-Modelle ein Segen.

Nein das macht kein Sinn, denn das macht Nvidia schon viel länger, als es DLSS gibt. Eine GTX260 basierte beispielsweise auf dem größten Chip der Generation und hatte ein 448 Bit, Inteface. Mit der 400er Generation gab es in der 60er Klasse schon einen kleineren Chip, bei der 600 Serie bekam selbst die 680 einen deutlich kleineren Chip und basierte nicht mehr auf dem großen Chip der Serie. Das war viele Jahre vor DLSS
Eorzorian schrieb:
Zu DLSS/FSR: Ja, sind gute Erfindungen, die uns mit "schwacherer" Hardware höhere Auflösungen versprechen bzw. ermöglichen können, aber es hinterlässt einen faden Beigeschmack, dass die eigentliche Intention eben "Kostenersparnisse" waren/sind.

Das ist ist eine Interpretationsweise. Die schnelleren Karten profitieren ja auch davon. Gibt ja eine 5090, die man sich kaufen kann. Aber natürlich hat es wirtschaftliche Gründe. In dem Bereich kannst du deutlich größere Schritte machen, als in der Fertigung. Man kann sich eine rosarote Welt wünschen, in der Unternehmen keinen Gewinn mehr machen möchten und alles schön günstig ist, in dieser Welt leben wir aber nicht. Zudem ist es auch eine enorme Effizienzsteigerung. DLSS / FSR brauchen viel weniger Energie, als man in mehr Rechenwerke für die Mehrleistung stecken müsste
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: latexdoll, RedPanda05 und Vigilant
je87 schrieb:
Woher hast du die 160 Hz?
Ich finde leider den Artikel dazu nicht mehr. Aber das war auch nur ein Versuch. Wissenschaftlich kann man keine fixe Zahl fest machen, weil es bei jedem anders ist. Wenn du aber 100 Leute blind testest, werden die meisten etwas in diesem Bereich liegen (so in etwa war der Versuch). Ich selbst hab das auch mal getestet und bei mir wird's ab 120hz schon schwierig den unterschied zu bemerken.
 
  • Gefällt mir
Reaktionen: Outsource0326 und je87
Ich verwette meinen Hintern darauf, dass die Anzahl an Personen, die zwischen 144 und 165 Hz noch einen Unterschied wahrnehmen, im niedrigen einstelligen Prozentbereich liegen. Alles darüber dürfte dann sogar Promille sein.
 
  • Gefällt mir
Reaktionen: Outsource0326
Allen gemein ist das QD-OLED-Panel mit 27 Zoll und 2.560 × 1.440 Pixeln, das eben jene 500 Hz als bisher höchste Bildwiederholrate bei OLED-Monitoren bietet.

Der wievielte Monitor mit 300-500 Hz bei nur 27 Zoll ist das nun schon? Am liebsten mag ich denen diesen Mist um die Ohren hauen, denn es nervt! :mad:
 
Lohnt sich derzeit OLED überhaupt?
(Also als PC-Monitor)

Würde gern umsteigen auf 32' und diverse Techniken wie HDR etc.
Aber die Preise sind ja heftigst... rechnet sich das durch Strom und Haltbarkeit oder... eher nicht?
 
Warum man 1000 FPS haben möchte

Manche meinen ja, dass Bildschirme mit hoher Bildwiederholrate keinen Sinn machen, weil man das sowieso nicht sehen könne. Dass das aber so nicht stimmt, kann jeder folgendermaßen nachvollziehen:
Einfach mal die Maus schnell hin- und herbewegen und dabei den Mauszeiger genau beobachten. Dabei wird man sehen, dass die Bewegung des Mauszeigers nicht flüssig ist, sondern dass sich eine unterbrochene Mausspur abzeichnet, wobei zwischen den einzelnen Abbildungen des Mauszeigers ein gewisser Abstand liegt (Abb. 1). Je schneller die Mausbewegung, desto größer ist der Abstand zwischen den einzelnen Frames.


1750200550406.png

Abb. 1: Mausspur. https://upload.wikimedia.org/wikipedia/commons/7/73/PointerTrails.png


Den gleichen Effekt kann man übrigens auch beim bekannten UFO-Test (https://www.testufo.com) beobachten. Dort wird eine schnelle Bewegung dargestellt und angezeigt, welche Distanz das UFO zwischen den einzelnen Frames zurücklegt. In diesem Beispiel (Abb. 2) legt das UFO auf einem 120 FPS (Hz) Monitor eine Entfernung von 8 Pixel pro Frame zurück. Bei einer schnelleren Fluggeschwindigkeit liegen zwischen den Frames entsprechend mehr Pixel. Für eine flüssige Darstellung, ist natürlich ein möglichst kleiner Abstand zwischen den Frames wünschenswert. Dies kann man durch höhere Bildwiederholraten erreichen. Ideal wäre ein Abstand von unter einem Pixel pro Frame.


1750200616077.png

Abb. 2: UFO-Test auf einem 120 Hz Monitor. In diesem Beispiel liegt zwischen den einzelnen Frames eine Distanz von 8 Pixeln.

Um zu ermitteln, wie hoch genau die Wiederholrate idealer Weise sein müsste, habe ich auf meinem aktuellen Monitor ein kleines Experiment durchgeführt: Ich habe die Maus wiederholt (wie anfangs beschrieben) schnell von links nach rechts und umgekehrt hin- und herbewegt. Dabei wurde gemessen (mit dem Lineal auf dem Monitor), wie groß der Abstand zwischen den einzelnen Abbildungen des Mauszeigers ist. Ein einfarbiger Hintergrund eignet sich dazu sehr gut. Ergebnis: Bei 120 Hz sind es ca. 2,5 cm. Der Einfachheit halber habe ich für die folgenden Beispielrechnungen 2,54 cm (1 Zoll) angenommen.

Da die Spezifikationen des Monitors bekannt sind (Tab. 1), kann man damit die Distanzen zwischen den Frames für verschiedene Bildwiederholraten berechnen (Tab. 2).


Tab. 1: Spezifikation des Test-Monitors. Diagonale: 27 Zoll (68,58 cm), Bildwiderholrate 120 Hz.
1750201055908.png


Tab. 2: Distanz zwischen den Frames bei unterschiedlichen Wiederholraten für sich schnell bewegende Objekte.
1750201074166.png



Dabei zeigt sich sehr deutlich, wie bei einer Erhöhung der Bildwiederholrate die zurückgelegte Distanz eines Objekts zwischen den Frames exponentiell sinkt. Bei einer Verdopplung auf 240 Hz ist die zurückgelegte Strecke nur noch halb so groß (0,5 Zoll); bei 480 Hz sind es nur noch 0,25 Zoll, usw.

In Abbildung 3 zeigt sich, dass der Scheitelpunkt der Funktion bei ca. bei 1000 Hz liegt. Das ist der „Sweet Spot“. Noch höhere Bildwiederholraten führen dann nur noch zu relativ geringen Verbesserungen.


1750201096054.png

Abb. 3. Zurückgelegte Distanz eines sich schnell bewegenden Objekts bei unterschiedlichen Bildwiederholraten.


Aber auch bei 1000 Hz wäre man mit 13,1 Px Distanz zwischen jedem Frame noch um einiges vom theoretischen Ideal (<1 Px) entfernt. Daher ist zu vermuten, dass sich in nicht allzu vielen Jahren ein Enthusiasten-Markt etablieren wird, der nach noch höheren Bildraten (z. B. 2000 Hz) verlangt. Im Mainstream wird sich dagegen der 1000 Hz-Monitor als sinnvoller Standard etablieren.

Fazit: Jeder kann sich von den Vorteilen einer höheren Bildwiederholungsrate selbst überzeugen und den Unterschied zu Hause ohne großen Aufwand nachvollziehen. Tatsächlich kann man das bereits am einfachsten Beispiel, der mehr oder weniger flüssigen Mauszeiger-Bewegung erkennen. Viel relevanter wird der Vorteil jedoch, wenn sich nicht nur ein kleines Objekt (wie der Mauszeiger) über einen statischen Hintergrund bewegt, sondern sich der gesamt Bildinhalt ändert, z. B. beim Scrollen auf einer Landkarte oder in einem 3D-Shooter. Bei einer aktiven Bewegung, bei der der Nutzer effektiv nachjustieren muss, ist eine möglichst geringe Distanz zwischen den dargestellten Bildinhalten offensichtlich hilfreich. Es ist durchaus wahrscheinlich, dass wir uns in ein paar Jahren alle fragen werden, wie wir es damals mit nur 120 FPS ausgehalten haben.


Postskriptum: Tatsächlich wird mir bei 3D-Shootern mit nur 60 FPS buchstäblich schlecht, d. h. ich bekomme ein sehr flaues Gefühl im Magen. Ich vermute, das liegt an einer zu starken sensorischen Diskrepanz. Ab 120 FPS geht es gerade so, aber schön ist das nicht. Mehr ist deutlich besser. WoWs bei 120 FPS ist noch OK, wahrscheinlich weil das Gameplay sehr langsam ist und man sich nur horizontal umsieht. R6 Siege auf meinem aktuellen Monitor bei 165 FPS ist spielbar, aber das Geruckel ist nicht wirklich hilfreich. Mein nächster Monitor wird definitiv mindestens 360 Hz haben. Und auf 1000 Hz können wir uns ab jetzt alle gemeinsam freuen!


Anhang:

Table S1. Extended Table.PNG

Fig. S1. Extended results in inches.PNG

Fig. S2. Extended results in cm.PNG

Fig. S3. Extended results in px.PNG
 

Anhänge

  • 1750200735689.png
    1750200735689.png
    9,4 KB · Aufrufe: 51
  • 1750200771599.png
    1750200771599.png
    22,1 KB · Aufrufe: 56
  • 1750200808625.png
    1750200808625.png
    28,6 KB · Aufrufe: 54
  • 1750200821132.png
    1750200821132.png
    28,6 KB · Aufrufe: 56
  • 1750200930531.png
    1750200930531.png
    58,3 KB · Aufrufe: 52
  • 1750201022332.png
    1750201022332.png
    10 KB · Aufrufe: 63
  • Gefällt mir
Reaktionen: Jintho und Belter
Strgy schrieb:
Im Mainstream wird sich dagegen der 1000 Hz-Monitor als sinnvoller Standard etablieren
Halte ich gegen, wird nicht passieren. Ist dir das Konstrukt des abnehmenden Grenznutzens bekannt?
Der Großteil des Forum sieht ab ~240 Hz (beim Großteil wahrscheinlich schon merklich früher und das hier ist ein Enthusiasten Forum) keine merkliche Verbesserung mehr.
Jetzt darf man sich fragen, warum sollte jemand ein Mehr an Fähigkeiten eines Gerätes bezahlen, wenn er den Vorteil davon nicht sieht? Richtig, er tut es nicht. Deswegen haben sich auch 8K Fernseher nicht durchgesetzt. Dem durchschnittlichen Kunden war die technische Überlegenheit fast keinen Aufpreis wert, weil es für ihn keinen zusätzlichen Nutzen einbrachte. Hier wird dann verfügbares Einkommen lieber in: bessere Displaytechnologie, Größe, Markenreputation, Lautsprecher verwendet oder sogar einbehalten und er freut sich über den guten Preis.
 
Strgy schrieb:
Daher ist zu vermuten, dass sich in nicht allzu vielen Jahren ein Enthusiasten-Markt etablieren wird, der nach noch höheren Bildraten (z. B. 2000 Hz) verlangt. Im Mainstream wird sich dagegen der 1000 Hz-Monitor als sinnvoller Standard etablieren.
Was hast du denn für eine Glaskugel?

Ich denke, dass der Mainstream die nächsten 10 Jahre bei 60hz verbleibt. Office Monitore müssen einfach günstig sein und Unternehmen bestellen den günstigeren Monitor. Mehr hz ist schön und gut, aber kostet auch mehr -> also toter Markt.
Für Enthusiasten also 0,001% oder so der Käuferschaft wird es WQHD Monitore mit ±500hz geben und die sinken im Preis. Ggf. wechsel auf OLED oder Mini LED. Noch mehr Hz, auch wenn es laut deinen Grafiken einen Mehrwert liefert, ist realistisch einfach Quatsch. Schaff doch erstmal so viele FPS und dann muss das Kabel die Bitrate auch mitmachen bei höheren Auflösungen. Wie viel Strom unnötig verschwendet wird, weil der Grafikchip dann auf dem Desktop schon unter Last steht.
 
Simonte schrieb:
Oder bleiben wir hier beim Thema, dass 500hz schon heftig sind.
Ich hätte gern mal einen Test, der belegt, dass es wirklich 500Bilder in einer Sekunde sind :)
Zuerst sollte man verstehen, dass FPS und Hz zwei unterschiedliche Dinge sind und wenn man von 500 Hz spricht, damit nicht 500 Bilder in einer Sekunde gemeint sind.

Frames per Second und Hertz arbeiten zwar gut miteinander, wenn sich die Werte annähern, aber wenn man mehr Hertz als FPS hat, kann es ebenso einen großen Vorteil bzw. keinen Nachteil haben.

https://blurbusters.com/ ist eine gute Seite, um das Thema zu verstehen. Es spielen viele Prozesse und Techniken eine Rolle, die alle variabel sind, sodass man es nicht so simpel wie FPS erklären könnte.

Mit diesem Artikel würde ich beginnen:
https://blurbusters.com/blur-buster...000hz-displays-with-blurfree-sample-and-hold/

Um es aber kurz zu machen:
Mehr Hertz ist bisher immer besser gewesen. Aber manche Einstellungen (und Spiele) nutzen den Vorteil entweder nicht aus oder die Spieler deaktivieren diesen in deren Treiber/Spiele-Einstellungen.
Auf jeden Fall kann man sagen, dass man mehr als 120 Hz oder 240 Hz wahrnehmen kann, wenn es technisch korrekt umgesetzt wird!
 
  • Gefällt mir
Reaktionen: Jintho und Simonte
RedPanda05 schrieb:
Die Antwort siehtst du hier im Forum. Da wird lieber für 600€ ein QHD Monitor gekauft in 2025 mit furchtbaren 110 PPI als ein 4K, weil es nicht genug FPS gibt, wenn man auf dem "nutzlosen" 4K spielt.

Und was soll man mit 4k bei 30-45 FPS? hatte ich bei diversen Spielen (Stalker 2, Alan Wake 2, Silent Hill 2, Indiana Jones, SW Outlaws, …) und einfach keinen Bock mehr drauf und hab rückblickend betrachtet viel zu lange 4k versucht

Genauso wenig hab ich Lust auf DLSS Performance, nur damit ich „4k“ habe

27“ QHD hat ein scharfes Bild und auch in anspruchsvollen Spielen (Cyberpunk, AC Shadows) mindestens 50 oder 70 FPS (mit DLAA oder Quality) - in F1 25 über 200 FPS - ansonsten hab ich nun angenehme 90-150 FPS

zum Glück kann das ja jeder für sich entscheiden und die meisten da draußen haben weniger GPU Leistung als ich

Für mich ist 4k Gaming noch ein Traum und nur mit viel Upscaling möglich
 
  • Gefällt mir
Reaktionen: Dandy2k5, RedDragon83 und Vigilant
So ist das. 4K ohne signifikante Abstriche bei Performance und Optik will auch erst einmal auf den Bildschirm gebracht werden.

Dagegen spricht grundsätzlich nichts, aber dann muss der Monitor auch zusammen mit dem Rest des Systems gedacht werden, sprich mit CPU und GPU.
 
bogge101 schrieb:
Verglichen mit meinem 42“ OLED TV ist das sehr scharf
wundert mich nicht, der Fernseher hat nur 104 PPI und dein Display 110.
Jetzt stell dir mal vor, wie scharf es wohl mit 160 PPI ist ;)

bogge101 schrieb:
außerdem zocke ich damit, da ist die Schrift total unwichtig
mir nicht, ich nutze einen PC ja nicht ausschließlich zum Zocken, dann könnte ich auch eine Konsole kaufen.
 
  • Gefällt mir
Reaktionen: Outsource0326
Haha, die PS5 wird wohl regelmäßig upscaling nutzen um überhaupt die 30 / 60 FPS zu packen

mehr als die 110 ppi sehen meine Augen eh nicht mehr
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RedPanda05
marco490 schrieb:
Ich finde leider den Artikel dazu nicht mehr. Aber das war auch nur ein Versuch. Wissenschaftlich kann man keine fixe Zahl fest machen, weil es bei jedem anders ist. Wenn du aber 100 Leute blind testest, werden die meisten etwas in diesem Bereich liegen (so in etwa war der Versuch). Ich selbst hab das auch mal getestet und bei mir wird's ab 120hz schon schwierig den unterschied zu bemerken.
Danke. Ich bin immer skeptisch, wenn Leute irgendwelche Zahlen in den Raum werfen ohne Belege. ;)
 
Was ist das denn schon wieder für ein Blödsinn? 500Hz und wieder nur DP 1.4 und HDMI 2.1? Wenn ich DSC deaktiviere, ist also mal wieder bei 314Hz @ 10 Bit Schluss? Man muss es nicht verstehen. Ein Problem ist das jetzt zwar nicht, mit reichen meine 314Hz, aber ist DP 2.1 immernoch Alien Technologie bei einem +-1000€ Monitor?
Wie sieht es denn mit vertical banding bei dunklen Bildschirminhalten oder VRR Flicker aus? Das sind wahre OLED Probleme und meines Wissens keine Lösungen in Sicht...

Was 4K angeht: absoluter Blödsinn, kaum ein Spiel kann damit vernünftig umgehen und Windows schon 3x nicht, dann sitzt man mit der Lupe vor dem Bildschirm und kommt mit der UI Skalierung nicht hinterher. Mit gescheitem AA sind 1440p auf 27" optimal und fast alle Spiele laufen nicht nur lesbar, sondern auch mit mehr als 30 fps...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cbtaste420
Zurück
Oben