News 1000 Hz: TCL CSOT zeigt Monitor mit höchster Bildwiederholrate

supertramp schrieb:
1000hz, beeindruckend aber irgendwie suche ich einen Sinn dahinter. 120hz zu 60hz wird man wohl noch unterscheiden können, aber alles darüber?
Ich seh nicht mal dies, bzw hab 60 noch wenig als störend wahrgenommen
 
Celinna schrieb:
Diese waren um Welten schlechter und sinds immernoch was damalige Röhrenmonitore im Stande zu leisten waren.
Für Gaming schlechter, Ja. Für die meisten Arbeiten? LCD besser IMHO.
Einfach zu sagen LCD ist schlechter als Röhre ist mir zu pauschal.
Ergänzung ()

Snoop7676 schrieb:
Röhre 1280x960 @100HZ steckt alles Moderne in die Tasche.
Ist halt die Frage was man will. Dass Röhren bei Bewegtbildern geil sind, absolut. Trotzdem spiele ich lieber auf dem OLED mit starken Kontrasten und höherer Auflösung.

Persönlich hoffe ich dass die OLEDs irgendwann so hell sind, das man BFI sinnvoll betreiben kann. Dann braucht es nicht soviele Hz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Elderian, Haldi und Snoop7676
Zwischen 120 und 240hz spüre ich noch einen Unterschied. Den Unterschied zwischen 240 und 500hz dürften wohl nur noch die wenigsten wahrnehmen können. 1000hz ist zum jetzigen Zeitpunkt aus meiner Sicht mehr Marketing, als das man wirklich einen sichtbaren Vorteil davon hat. Die Monitor- und TV Industrie muss sich halt regelmäßig was neues einfallen lassen, um den Kunden Gründe für eine Neuanschaffung an die Hand zu geben.
 
Kamuschikasacki schrieb:
Ich sag nur Spulenfiepen
Vermutlich bei 1000fps in einem so hohen Bereich das man es auch nicht mehr hören kann xD
 
Beim Vergleich mit Röhren möchte ich noch den Stromverbrauch einwerfen: mein 19" Iiyama VisionMaster Pro 454dt hat damals so um die 130W verbraucht. Der hatte damals 130kHz Zeilenfrequenz und konnte damit 1600x1200 mit 85Hz darstellen.
Da waren alle LCDs danach sparsam, mit anfangs gut 50W für den 1280x1024 und später auch 30W für FullHD.

Aber ich gehe davon aus, dass der Verbrauch mit den Hz wieder deutlich hoch geht.
 
Unnötig, kein Grafikkarte und die Kabel kann es aktuell 4K 1000Hz liefern. Mein Kabel hält schon 4K 144Hz und HDR in die Grenzen. Sobald ich etwa schlechteren dünneren HDMI 2.1 Kabel nehme, habe ich wegen aktivierte HDR die flackernde Bildstörung. Sind schlicht halt überfordert 😂

Ich merke an der Konsole 60+ FPS keinerlei Unterschied. Egsl ob ich 60 oder 120 Hz spiele, merke ich keinerlei Unterschied (zb Quake, Borderlands 3 - beide hat 120 FPS Support). Sobald man an PC ransetze, merke ich wie Tag und Nacht. 144 Hz ist viel smoother als 60 Hz. Jedoch spielte ich am liebsten 120 FPS. (120 zu 144 merke ich kaum Verbesserung)

Und nichts vergessen, ich spiele Casual. Deswegen keine Ahnung was kompetitive Spieler anders wahrnimmt als ich. 🤓

Für meine Anforderung brauche ich keine 144+ Hz Monitor, da nehme ich lieber die besseren Farben als nen haufen Hz zu haben, die ich eh 120+ Hz nicht mehr spürbar wahrnehme. 1000 Hz Monitor ist für mich völlig unnötig. Geschmiere bleiben, wenn Panel wie VA eh nicht packst. Und nur Desktop anschauen arbeiten die Grafikkarte wegen 1000 Hz unter vollen Last. 😬
 
supertramp schrieb:
1000hz, beeindruckend aber irgendwie suche ich einen Sinn dahinter. 120hz zu 60hz wird man wohl noch unterscheiden können, aber alles darüber?
Darüber merkst Du es nur noch bei sehr schnellen Aktionen. Also ich nicht mehr so sehr - bin zu alt. Aber trotzdem... im Shooter, bei heftig schnellen Drehungen macht es Unterschiede.

Ab wo es letztlich in Esoterik mit den hohen Bildfrequenzen umschlägt, wird sich zeigen.

Ich vermute die 1kHz nähern sich dieser Schwelle selbst im Profibereich.
Wenn in paar Jahren aber jemand mit 4kHz Titel abräumt - und dann aussagt, das wäre mit 240Hz nie möglich gewesen... nunja... werd ich wohl glauben (müssen).
Ergänzung ()

Mr_Lexxus schrieb:
Hoffentlich unterstützen die nächsten Triple-A-Spiele in Zukunft wieder eine Auflösung von 320 × 240, damit solche 1000 Hz Monitore dann richtig ausgereizt werden können.^^

Was hat die Bildwiederholfrequenz mit der Auflösung und den frames per minute zu tun?

Die Frage dient zur Übung - nicht als Strafe.
Möglicherweise kommt sogar Erkenntnis dabei rüber :-)
Ergänzung ()

TrabT schrieb:
Vermutlich bei 1000fps in einem so hohen Bereich das man es auch nicht mehr hören kann xD
Öhm. 1kHz ist akustisch durchaus für quasi jedermann hörbar.
Aber den saftigen Bass, den dementsprechend 60Hz oder 120Hz Monitore produzieren müssten... habe ich bisher noch nie wahrgenommen.

fps sind keine korrekte Einheit in der Akustik, afaik.
Ergänzung ()

Boimler schrieb:
Das sind ca. 7 Pixel pro mm. Was für Adleraugen muss man haben, um das von 4K unterscheiden zu können? Das ist genau so absurd wie die Hz-Debatte, die oberhalb von 120Hz geführt wird.
Es ist beides absolut nicht absurd.

Es gibt Anwendungsfälle, dort macht es Sinn. Und es gibt Leute mit sehr guten, schnellen Augen.

Meiner Oma würde ich solche Technik nicht unbedingt andrehen, wenn sie schneller surfen will 😁
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: supertramp
Boimler schrieb:
hast du (bei 120Hz) mit einer Chance von (1/5)*(1/24) genau das Bild getroffen
Kann dir nicht folgen, was du da berechnen willst.
Boimler schrieb:
Ganz außen vor bleibt sowas wie Augenbewegung
Aber genau darum geht es doch, mein Auge folgt dem Objekt auf dem Bildschirm und ist dabei schneller als der Bildwechsel, dadurch entstehen unschärfe Kontrastkanten, ich sehe ja das aktuelle Objekt noch in den "nachfolgenden" Netzhautbereichen, bevor es bei 120hz alle 8ms an der nächsten Position neu angezeigt wird. Du beziehst dich wie gesagt auf Lichtimpulse in Einzelbereiche des Auges.
Boimler schrieb:
oder verzögerte Wahrnehmung.
Auch hier verstehst du das Konzept nicht. Ob ich das ganze verzögert warnnehme spielt überhaupt keine Rolle in diesem Aspekt. Ich sehe auch dass Sonnenlicht 8 Minuten später, dennoch kann ich jeden Moment davon kontinuierlich wahrnehmen. Nur später. Es fehlt kein Photon das mein Auge übersehen hat.
 
JensG schrieb:
fps sind keine korrekte Einheit in der Akustik, afaik.
Was er meinte war das Spulenfiepen der Grakas, das je höher wird desto mehr FPS die Graka berechnen muss... oder anzeigen. Nicht sicher von was es genau kommt. Aber so um die 200-300fps rum fängts langsam an mühsam zu pfeifen.
 
michelthemaster schrieb:
LG hätte da was für dich :-)

Das Panel kann 4k mit 240Hz oder 1080p mit 480Hz.
Eigentlich meinte ich schon wirklich ein reines 4k OLED Panel mit 500hz. Also was auch in 4k Auflösung 500hz kann. Also keine 1080p oder WQHD. Da ist dann Displayport 2.1 aber wohl ein Muss.

Ich verstehe sowieso nicht, wieso sie bei den ganzen neuen OLED Monitoren noch auf Displayport 1.4 setzen.
Ich hab das Gefühl, die beschneiden die absichtlich, damit die Kunden in ein paar Jahren wieder was neues kaufen und dann wieder ein neues Kaufargument haben. Einzig der Gigabyte FO32U2P geht hier mit gutem Beispiel voran.

Das Panel von LG ist aber ansonsten vom Prinzip her ganz interessant, da gebe ich dir recht.
 
Statt immer höhere Hz sollten die Monitorhersteller mal das Prinzip der Bildwiederholung über den Haufen werfen.
 
Ayo34 schrieb:
Röhrenmonitore aus dem letzten Jahrtausend guten LCD Monitoren überlegen sind,
Jain.
Pauschal zu sagen CRTD wäre den heutigen, guten, LCD überlegen ist falsch.

Ein LCD kennt weder CA noch geometrische fehler. Auch kennt ein CRTD keine 'native Auflösung. Bezüglich Kontrast und Leuchtdichte dreht jedes (gute) LCD kreise um CRTD.

Ja, klar hats CRTD gegeben die 150HZ schafften aber bei welcher Auflösung? 640x480? Cool.

Vom Platzbedarf, Gewicht, Stromverbrauch un dem Hochfrequenz fiepen des Hochspannungsteils red ich garnicht erst.
 
Ging mir einzig um schnelle Shooter bzw. die Bewegungsunschärfe. Klar haben auch LCDs jede Menge andere Vorteile und ich würde auch keinen Röhrenmonitor mehr nutzen wollen für 99% der Sachen.
 
Haldi schrieb:
Wichtig ist das der Monitor 1'000 Hz kann und somit Bilder bei 1000Hz klar darstellen kann ohne Schlieren oder Overshoot. Die Darstellung des Bildes wird dadurch wesentlich besser.
Bitte um eine Physikalisch korrekte Begründung für diese Aussage.
 
Noonian schrieb:
Aber genau darum geht es doch, mein Auge folgt dem Objekt auf dem Bildschirm und ist dabei schneller als der Bildwechsel
Das Auge ist bei 120Hz grundsätzlich langsamer als der Bildwechsel. Bei einer sehr sehr guten Wahrnehmung schafft man vielleicht 20fps im eigenen Auge. Das bedeutet dann sechs (und nicht fünf wie in meiner Rechnung) Bilder, die durchlaufen, bevor dein Auge überhaupt einen neuen Sinneseindruck ans Gehirn weitergeleitet hat. Es ist also von daher schon beim ruhenden Bild schlicht nicht möglich, unterschiedliche aufeinanderfolgende Bilder bei 120Hz wahrzunehmen.

Schnelle aufeinanderfolgende Augenbewegungen sind selten schneller als 100°/s. Das sind bei den oben genannten sehr sehr guten Augen dann 5° pro Einzelbild im Auge. Also alle 5° wird ein neuer Sinneseindruck wahrgenommen. Bei 120Hz müsstest du ca. 11,5m von einem Fernseher mit 1m Breite entfernt sitzen, damit dein Augapfel sich schneller bewegt als die Aktualisierungsrate ein neues Bild auf den Monitor gebracht hat. Dann, ja dann hast du bestimmt Bewegungsunschärfe wegen zu geringer Bildwiederholrate. Ansonsten ist dein Auge nicht mal ansatzweise in der Lage weder in Ruhe noch in Bewegung 120Hz von 144Hz von 1000Hz zu unterscheiden.

Noonian schrieb:
Ich sehe auch dass Sonnenlicht 8 Minuten später, dennoch kann ich jeden Moment davon kontinuierlich wahrnehmen.
Peripheres Sehen ist grundsätzlich verzögert und immer ein Produkt deiner Erinnerung und Erfahrung. Schau mal fern und stell einen Spiegel so auf, dass du ca. 70-90° versetzt ebenfalls das Fernsehbild wahrnehmen kannst. Du wirst bemerken, dass Szenenwechsel und Schnitte nur zeitversetzt im Spiegel "zu sehen" sind, während du den Fernseher anschaust. Wenn dein Spiegel jetzt nicht gerade 100.000km entfernt steht, können wir das wohl kaum auf die Lichtgeschwindigkeit schieben. Dein Gehirn ergänzt das Bild im Spiegel - "Sehen" tut dein Auge da nämlich gar nichts.
 
Tulol schrieb:
Bitte um eine Physikalisch korrekte Begründung für diese Aussage.
keine Lust zur Quelle des Artikels zu gehen und selber zu lesen?
https://blurbusters.com/blur-buster...000hz-displays-with-blurfree-sample-and-hold/

1716145658745.png
 
  • Gefällt mir
Reaktionen: Pro_Bro, ChrisMK72 und Haldi
Jetzt weis ich wenigstens wo wir hier an einander vorbei reden. Du wiederholst immer wieder die selben veralteten Annahmen. Das Auge arbeitet nicht digital und sendet Bilder oder einzelne Eindrücke ans Gehirn..

Es schickt einen kontinuierliches analoges Signal, das denn im Gehirn gefiltert wird. Im Endeffekt bildet es einen Mittelwert des Signals was Bewegungen gut und gerne ab 20 FPS zu einem durchgehenden Effekt führt.. was aber nicht heißt das ich dann auch wirklich scharf das Bild sehe. Da ich an Kontrastkanten dann eben keinen scharfen Übergang vermittelt bekomme sondern eine Weichzeichnung aus den minimalen und maximalen Helligkeits- oder Farbsignalen.
1716149316785.png

Das Gehirn ist dann noch in der Lage bekanntes nachzukorrigieren bzw was es als Bild erwartet womit ich dann auch leicht unscharfen Text lesen kann. Zumindest solange bis nicht jemand diesen Effekt ausnutzt und zum Besipsel Kosnonetan tasuhct.
 
Zuletzt bearbeitet:
Makkaroni schrieb:
Mein TV ist ein 55cm Panasonic Röhrenfernseher. Ich habe ihn vor ca. 30 Jahren von meinem ersten Gehalt gekauft. Ich wollte ihn schon häufig ersetzen, gerade wenn vor einer anstehenden Fußball WM, die Werbung für neue TV's sehr verlockend war.
Aber ich habe intern ein Versprechen mit meinem TV ausgehandelt: "Solange du läufst, behalte ich dich!"
Ja, bei Fussballspielen ist es schwierig die Ergebniseinblendung zu entschlüsseln. Oder auch eingeblendeten Text zu lesen.
Sky hat mich diverse Male bedrängt meinen veralteten Receiver zu tauschen. Aber ich habe immer abgelehnt, weil es ja keinen Scart-Anschluss mehr gibt.
Du magst ja recht haben, dass Röhrenmonitore im Vergleich zu LED komplett Scheiße sind, aber es gibt tatsächlich noch Menschen, die damit zufrieden sind, was diese TV's auch heute noch leisten.

P.S. Weiss hier jemand wie alt Röhrenfernseher werden können?:)

Soviel Nachhaltigkeit ist leider selten geworden ...
Ergänzung ()
 
Zuletzt bearbeitet:
Boimler schrieb:
Peripheres Sehen ist grundsätzlich verzögert und immer ein Produkt deiner Erinnerung und Erfahrung. Schau mal fern und stell einen Spiegel so auf, dass du ca. 70-90° versetzt ebenfalls das Fernsehbild wahrnehmen kannst. Du wirst bemerken, dass Szenenwechsel und Schnitte nur zeitversetzt im Spiegel "zu sehen" sind, während du den Fernseher anschaust. Wenn dein Spiegel jetzt nicht gerade 100.000km entfernt steht, können wir das wohl kaum auf die Lichtgeschwindigkeit schieben. Dein Gehirn ergänzt das Bild im Spiegel - "Sehen" tut dein Auge da nämlich gar nichts.
und auch das ist falsch. Peripher seh ich überwiegend Hell und Dunkel, und kann dadurch besonders gut Bewegungen wahrnehmen und das sofort nicht verzögert. Wäre Evolutionär auch schwer nachzuvollziehen. Kann man sehr schon am Nachthimmel bei Sternschnuppen oder Sateliten beobachten.. die werden klarer sichtbar wenn ich nicht direkt drauf gucke.
 
  • Gefällt mir
Reaktionen: Mayima
Noonian schrieb:
Kann man sehr schon am Nachthimmel bei Sternschnuppen oder Sateliten beobachten
Jo, weiß ich. Ich mach das (neben-)beruflich. Aber die Tatsache, dass Farbsehen und Helligkeitswahrnehmung physiologisch an anderen Orten stattfinden, hat nichts mit der Signalverarbeitung im Gehirn zu tun. Bei Schwarz-Weiß-Fernsehen wäre das vielleicht relevant. Dass du Farben auch am peripheren Rand deines Sehfeldes wahrnimmst, bestätigt ja nur das, was ich bereits darüber geschrieben habe.

Noonian schrieb:
Im Endeffekt bildet es einen Mittelwert des Signals was Bewegungen gut und gerne ab 20 FPS zu einem durchgehenden Effekt führt
Das ändert ja nichts daran, dass dein Gehirn 16 Bilder pro Sekunde zu einem Ganzen verarbeitet, während der Fernseher in der Zeit 120 schafft. Möglich, dass da mal bei ein oder zwei Eindrücken "Kanten" zu sehen waren für das Gehirn, aber das Märchen von "ab xxHz tritt das nicht mehr auf" wird dadurch nicht wahrer.
 
Zurück
Oben