News AOC AGON Pro AG246FK6: 600-Hz-Monitor startet für umgerechnet 830 Euro in den Verkauf

Ja nee 600hz, wer braucht sowas außer Profi E-Sportler.🙄
0mega schrieb:
@|Moppel| ... viele denken das wirklich unironisch. Die Kommentare unter high fps Monitoren oder frame gen sind immer ein reines cringe Fest. Ich will nichts mehr unter 240Hz ;)
Also ich habe hier eine 32"Monitor mit 144hz zum Spielen.
Habe das für mich getestet, und ab 120hz sehe ich keine Veränderung mehr.
Und auch zwischen 100hz und 120hz ist der Unterschied so gering, das ich mein System auf 100hz fest eingestellt habe.

Aber wer sich halt einbildet, über 200hz noch unterschiede zu sehen, soll sich halt so ein Monitor holen.🤷‍♂️
 
Glaube nichtmal in CS2 bekommt man die 600Hz auch mit 600 FPS gefüttert.
Die Monitore sind am Markt vorbei entwickelt, werden mit Sicherheit aber auf dem ein oder anderen Event stehen.
Würde sich ohnehin nicht lohnen, bei CS2 ist das langsamste Glied im Spiel die schlechten Server von Valve, jede DSL Leitung in den frühen 2000ern hatte bessere Latenzzeiten.
Hab auch erst wieder vor paar Tagen gespielt und hätte im Strahl kotzen können, ich baller schon auf den zweiten Gegner und hab die Maus um 180° geflickt bis der erste tote Gegner mal umfällt und diese Schneckenserver mal die Daten zu mir geschickt haben, macht Bock, nicht.
Wie oft auch Gegner anfangen auf mich zu ballern, denken da kommt jetzt Kill Confirmed und schießen auf den nächsten Los - einfach Inkonsistent das ganze Spiel.
Jedes mal extra ballern oder das Risiko eingehen, dass einer nicht umfällt, dafür braucht man 600Hz, damit man die Probleme noch besser erkennen kann.

Oder wenn die Gegner um die Ecke fliegen, die kommen da gefühlt mit 10Hz Bewegungsdaten ums Eck teleportiert, ich sehs jedes mal auf meinem 240Hz Monitor und denk mir da auch nur, was für ein unterirdisches Netzwerk.
 
Nicht mehr lange zum 666Hz Monitor. Marketing-Abteilungen stehen dafür bestimmt schon in den Startlöchern.
 
Cabranium schrieb:
Ab wieviel FPS ist ein Unterschied für das Menschliche Auge noch wahrnehmbar, wenn wir von konstanten fps ausgegen?
Mein altes Wissen sagt, um die 70 FPS Marke wirds ziemlich flüssig (wenn nur betrachtet wird). Die Falschdoktrin von 24 FPS rührt daher, dass ab ca. 24 FPS der Mensch in der Lage ist, einen einigermaßen Flüssigen Zusammenhang zu erkennen.

Gibt Forschungen bei denen rauskam, dass das Menschliche Auge/Gehirn wohl in der Lage ist ein Bild das 1/200 Sekunden angezeigt wird, noch detailliert wieder zu geben. Ich glaube es waren sogar so um die 1/240 Sek. rum.

Die hohen Bildfrequenzen und FPS haben aber nichts mit "Auge wahrnehmen" zu tun. Das hat mit Verzögerung und Spielfluss wahrnehmen zu tun (es handelt sich ja hierbei um ein interaktives Medium, da sind geringe Verzögerungen durchaus bemerkbar). Dazu noch der Gedanke...je höher die Frequenz des Monitors (Hz), um so weniger ist man auf Mechanismen wie GSync und des gleichen abhängig. Wenn du z.B. 1000 Hz hättest, dann würde der "Versatz" (bzw. der kleinste gemeinsame Nenner) nur ca. 1 Ms betragen. FPS wären dann wahrscheinlich egal, solange eine angenehme Höhe erreicht wird.

Außerdem denke ich dass im Falle CS2 gar keine 600 FPS erreicht werden müssten, wenn ein 600Hz Display anliegt. Solange die FPS weit über 100 liegt (vermutlich 150 - 200 rum), dürfte das schon ausreichen.
Denke nicht, dass man hier einen Divisor benötigt.
 
Zuletzt bearbeitet:
Magl schrieb:
24 Zoll? Wer tut sich sowas noch an..
Postman schrieb:
Ist die gängige Größe für solche eSport Monitore. Da willst du möglichst alles im Blick haben ohne deinen Kopf bewegen zu müssen. Praktisch jeder CS Profi spielt auf 24". Je nach Game teils noch 27", aber auch das ist schon seltener und das höchste der Gefühle.
 
  • Gefällt mir
Reaktionen: raPid-81
0mega schrieb:
Das ist nicht korrekt, die Fähigkeit Bildsprünge zu sehen verschwindet erst bei rund 500 Hz. Ich persönlich habe kein Problem den Unterschied zwischen 120 und 240 zu sehen, und der Unterschied fühlt sich auch echt mies beim zocken an. Auch zwischen 240 und 360 habe ich null Probleme zu unterscheiden. Darüber wird es tatsächlich schwieriger, aber 500 Hz sieht aus als würde man durch ein Fenster schauen, und nicht mehr wie Computergrafik.
Genau. Was viele einfach nicht raffen, man fühlt den unterschied.

Diese "wer braucht das" Mentalität ist halt sowas fürn Ar....
Wer keinen Unterschied merkt, oder nicht informiert ist, der solls einfach lassen.
Mir fallen auch Tausend Sachen ein, die ich nicht brauche...andere aber vielleicht schon....
 
  • Gefällt mir
Reaktionen: Flaimbot
ErnstHaft99 schrieb:
Dann gibt es UFG: ein Bild wird gerendert und 9 werden erfunden
Na um die bildschirme zu füttern werden Bilder erfunden und die frame gen in der zweiten Stufe erfindet auf Basis der erfundenen Frames jeweils nochmal ein paar Frames.

Und die Grafik konvergiert dann wieder Richtung cell shading wie damals in XIII, weil selbst mit dem Ranz und all den Artefakten die Leistung nicht drin ist.

Danke, Team Grün, für nix.
 
Naesh schrieb:
Mist ... jetzt fehlt mir eine MFG 8x oder 16x :D. Wo bleiben NVIDIAs neue GPUs? xD.
Lossless Scaling bietet 20x MFG
 
DerSnake schrieb:
Statt immer mehr HZ drauf zu ballern wäre es mal schön wenn mal ein wirksames Mittel gegen VRR Flicker finden würde...^^
Jo, ich weiß nicht warum das nicht mehr beachtet wird. Besonders bei OLED Monitoren und TVs.
Selbst der neuste G5 hat es wieder.
 
  • Gefällt mir
Reaktionen: DerSnake
prayhe schrieb:
Ist die gängige Größe für solche eSport Monitore. Da willst du möglichst alles im Blick haben ohne deinen Kopf bewegen zu müssen. Praktisch jeder CS Profi spielt auf 24". Je nach Game teils noch 27", aber auch das ist schon seltener und das höchste der Gefühle.
Das verstehe ich für eSportler.
Aber die Menge wird doch eher an Hobbyzocker verkauft.

Klingt für mich wie die Beweggründe damals wie bei den Lan Partys damals.
Kaum einer hatte legale Spiele oder einen potenten PC, weshalb es immer hieß spielen wir doch "CS" und deshalb fast immer nur dieses eine Spiel auf winzigen Monitoren gezockt wurde.

Ändern sich die Zeiten so wenig?
 
  • Gefällt mir
Reaktionen: prayhe
|Moppel| schrieb:
Die Frage wie viel fps man wahrnehmen kann erscheint naheliegend,
Alle.
Ergänzung ()

Schwobaseggl schrieb:
Mal ne ernsthafte Anmerkung, meine GPU fängt so am 600 frames ganz böse mit fiepen an... Wird vielen anderen genau so gegen.
Ja, aber das fiepen stört die Augen nicht 😜
Ergänzung ()

Tulol schrieb:
Och, wenn du ihn mit hiesigem Netzstrom versorgst schafft der sogar 50fps.
😂👍
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schwobaseggl
Looniversity schrieb:
Na um die bildschirme zu füttern werden Bilder erfunden und die frame gen in der zweiten Stufe erfindet auf Basis der erfundenen Frames jeweils nochmal ein paar Frames.

Das ist nicht korrekt. Es werden bei Frame Generation immer 2 gerenderte Frames verwendet und dort, je nach Einstellung, dann 1-3 Zwischenbilder eingeschoben.

Die 1-3 Zwischenbilder werden anhand der 2 gerenderten Frames und den Motion Vectors berechnet und sofort ausgegeben. Aus 2 Zwischenbildern erhält man keine Motion Vectors, daher wären die daraus entstehenden Zwischenbilder um einiges schlechter.

Außerdem würde man so eine noch viel höhere Latenz generieren. Aktuell addiert Frame Gen ca. 10-15ms auf die Latenz, und dabei ist es egal ob man 1, 2 oder 3 Zwischenbilder dazu schaltet. Allein das zeigt dass der Frame Gen Vorgang eine einzige Berechnung ist.
 
@raPid-81 Das ist aktuell richtig. Ich gehe aber fest davon aus, dass die "Technik" hier nicht halt macht und uns genanntes Vorgehen auch irgendwann für viel Geld als "Fortschritt" verkauft wird.
 
@Looniversity Deine Antwort klingt so als hättest Du gewusst dass Deine Behauptung nicht stimmt. Warum dann überhaupt sowas schreiben? Anti-Nvidia-Propaganda oder was ist der Beweggrund?

Wenn es, mit viel Forschung und Entwicklung, irgendwann möglich ist während der Zwischenbild-Berechnung neue Motion Vectors aus der Engine zu erhalten, und diese in die Multi-Frame-Gen einfließen zu lassen, dann wäre das natürlich ein Fortschritt (nicht in Anführungszeichen) und monetär auszugleichen.

Forschung und Entwicklung ist teuer. Von nix kommt nix wie man so schön sagt.
 
raPid-81 schrieb:
Deine Antwort klingt so als hättest Du gewusst dass Deine Behauptung nicht stimmt. Warum dann überhaupt sowas schreiben? Anti-Nvidia-Propaganda oder was ist der Beweggrund?
Frames erfinden geht immer auf Kosten der Bildqualität. Mein Kommentar bringt lediglich zum Ausdruck, dass ich davon ausgehe, dass NVidia in Zukunft sehr gerne noch mehr Bildqualität gegen Performance eintauschen wird. Anders können die frame rates für 600 Hz Schirme auch gar nicht produziert werden, so einen Bildschirm mit 130 fps zu füttern ist völlig sinnlos.
 
Looniversity schrieb:
Frames erfinden geht immer auf Kosten der Bildqualität.

"Erfunden" oder "geraten" wird da gar nichts. Es findet eine Berechnung statt. Genau so wie beim Rendern, oder beim Upscaling.

Dass so eine Berechnung generell "immer" auf Kosten der Bildqualität geht ist als Behauptung nicht haltbar, denn DLSS Quality, welches auch Pixel berechnet (oder "erfindet" wie Du sagen würdest), sieht meist besser aus als das native Bild mit TAA.

Looniversity schrieb:
Mein Kommentar bringt lediglich zum Ausdruck, dass ich davon ausgehe, dass NVidia in Zukunft sehr gerne noch mehr Bildqualität gegen Performance eintauschen wird.

Ich gehe eher davon aus dass der Frame Generation Algorithmus besser wird und somit die Bildqualität steigt. So wie es eigentlich immer passiert, neue Techniken werden verbessert, nicht verschlechtert.
 
raPid-81 schrieb:
sieht meist besser aus als das native Bild mit TAA
Achwas. Ohne TAA sähe die Sache ja auch nativ deutlich besser aus.
Aber das wird Off topic, also lassen wir es dabei bewenden.
 
Looniversity schrieb:
Achwas. Ohne TAA sähe die Sache ja auch nativ deutlich besser aus.

Jetzt scherzt Du, oder? Ohne Anti-Aliasing!? Das kann nicht Dein Ernst sein...

Massive Treppchenbildung, feine Linien sind nicht mehr durchgängig, wenn Du das als "deutlich besser" empfindest hat sich unsere Diskussion tatsächlich erledigt.
 
...es gibt noch anderes AA als TAA, das meiste davon technisch weit besser umgesetzt.
 
@Looniversity

Ja, DLSS oder FSR4 zum Beispiel. DLAA wurde oft als beste verfügbare Kantenglättung betitelt. Und das ist state-of-the-art, so viel zu "weit besser technisch umgesetzt".

Natürlich kann man mit SSAA / MSAA / Downsampling tolle Ergebnisse erzielen, nur kosten diese Verfahren ungemein Leistung. SMAA kann qualitativ nicht mithalten.

Also erzähl mal, welches AA meinst Du genau? Würde ich mir gerne anschauen.
 
Zurück
Oben