Bericht 8.000-Hz-Gaming-Mäuse: Razer experimentiert 7.000 Hertz über der Konkurrenz

Bullbumba schrieb:
Ich verlinke dazu einfach mal zwei Artikel falls es jmd. interessiert: Einer eher trockene Theorie; der andere zeigt dass es selbst mit 1000 Hz noch zu Problemen in speziellen Situationen kommen kann.

Schöne Theorie - bringt nur trotzdem nichts, wenn das Spiel die 8000 Abfragen gar nicht verarbeiten kann.

Umgekehrt kann man aus weniger Abfragen Zwischenwerte interpolieren. Oder das Spiel rechnet je nach Mausbewegungsgeschwindigkeit mit vergrößerten Hitboxen.
 
Bsp. Overwatch unterstütz schon beliebig hohe Polling-Raten. Quelle
Und das komplett ohne Interpolation.
Also weit ab von Theorie und durchaus etwas was mit der Zeit auch mehr Richtung Mainstream gehen wird.
Die leicht erhöhte Prozessorlast sehe ich da auch unkritisch; genau dafür hat man doch inzwischen 12+ Kerne.
 
  • Gefällt mir
Reaktionen: autopilot
Das wären bei 1000 Hz und max. 300 fps (mehr geht nicht bei Overwatch) schon 3-4 Werte pro Frame, die auf einmal eingelesen werden. Wenn man die nicht "böswillig kleinlich" interpretiert (sprich die 1 ms Unschärfe bei der Button-Abfrage berücksichtigt), bringen noch höhere Werte keinen Vorteil mehr.
 
Ich zitiere aus meinem Link: "This means you can also functionally shoot between rendered frames (or at high fps, on rendered frames that are in between ticks)"
Das Zauberwort ist "Subframe aiming", man ist also nicht zwangsläufig an die Ausgabe des nächsten Frames gebunden.

Aber ich sehe schon man wird sich hier nicht einig.
1000 Hz ist scheinbar die "perfekte Zahl". Alles was darüber hinaus geht ist unnötig.
Zum Glück hat man das nicht schon bei 125 Hz gesagt. :schluck:
 
  • Gefällt mir
Reaktionen: autopilot
JMP $FCE2 schrieb:
Du hast meinen Einwand offensichtlich nicht verstanden.
Du seinen offensichtlich auch nicht.
Aber lasst es doch gut sein. Das wird nur totdiskutiert, ohne dass etwas bei rumkommt.
 
  • Gefällt mir
Reaktionen: Bullbumba und cruse
spürbar hat wenig mit objektiver wahrnehmung sondern mehr mit subjektiver zu tun. mehr "marketinggags" braucht der gamer, um ihm das geld aus der tasche ziehen zu lassen. siehe auch corsairmaus mit 2x 1000hz polling:D
 
Wie groß ist denn die Spurabweichung bei einer Richtungsänderung um 90° und (Extremfall) 180° bei einer Beschleunigung von (jeweils) 5 m/s², 10 m/s² und 20 m/s² bei 125 Hz (z.B. Logitech MX518), 500 Hz, 1000 Hz und 8000 Hz?
Das wären mal vernünftige Werte, alles Andere ist nur nichtssagendes Marketinggelabere.
 
  • Gefällt mir
Reaktionen: JackA und KitKat::new()
Ich finde mehr 1000 Hz ist nur noch Augenwischerei, das gesamte System muss auf low latency getrimmt sein, dass man da ein Wettbewerbsvorteil haben kann.
 
Alles eine frage der Motorik, es gibt menschen die haben absolutes Feingefühl, und welche die habens nicht, ich werde die maus mit sicherheit im Blick behalten.
 
Tkohr schrieb:
Alles eine frage der Motorik, es gibt menschen die haben absolutes Feingefühl, und welche die habens nicht, ich werde die maus mit sicherheit im Blick behalten.

Mag ja sein, aber wie soll ein Mensch die 7000Hz statt 1000Hz merken, wenn die Rückmeldung mit 60Hz und einer Latenz von ca. 100ms ankommt?
 
ebird schrieb:
Mag ja sein, aber wie soll ein Mensch die 7000Hz statt 1000Hz merken, wenn die Rückmeldung mit 60Hz und einer Latenz von ca. 100ms ankommt?
Da du, wenn du von "7000 statt 1000 Hertz" sprichst, den Bericht vermutlich gar nicht und die Überschrift falsch gelesen hast, erübrigt sich eine Diskussion vermutlich.

Dennoch, ich führe noch einmal aus: Das ist im Grunde genommen die gleiche Debatte wie zwischen 240 und 360 Hertz bei Bildschirmen. Ein einzelner aus dem Kontext gerissener Datenpunkt à la "1 ms kann kein Mensch differenziert wahrnehmen" ist Unsinn, da eben das bei einer stetigen Mauszeigerbewegung bzw. Bildfolge schlichtweg nie der Fall ist.

Es ist dabei egal, dass der gesamte Lag von Mausbewegung zu Erregungskaskade auf der Retina dutzende Millisekunden beträgt, weil diese Latenz ohnehin gesetzt ist. Durch die permanente Aktualisierung und den dauerhaft geringeren Lag zwischen Eingabe und Wirkung wird eben diese Eingabe durchaus direkter und aufgrund der höheren Anzahl an Messpunkten auch präziser und vorhersehbarer. Das wird ein nicht-Gamer auf einem 60-Hertz-Panel freilich nicht merken, weil er dafür einfach nicht sensibilisiert ist. Selbst bei den meisten Spielern und für die meisten Spiele wird das nicht von Relevanz sein, weil es schlichtweg nicht der limitierende Faktor ist. Bei mir ist es ja auch so – ich merke einen Unterschied und im direkten Vergleich fühlt sich das Ganze besser an, ich werde dadurch aber nicht besser.

Im E-Sport wiederum gelten andere Maßstäbe. Und natürlich ergibt es dann Sinn, die technischen Limitierungen soweit eben möglich zu reduzieren. Diese Frage stellt sich ja eigentlich gar nicht; ich wundere mich sowieso, dass so viele entgeistert auf eine logische Weiterentwicklung reagieren. Wenn Grafikkarten immer schneller werden und die Frametimes infolge um ein paar ms besser werden stellt ja auch niemand infrage, ob das "sinnvoll" ist.

Ich sehe aber schon, im tatsächlichen Test einer ersten finalen 8000-Hertz-Maus werde ich wohl weit ausholen müssen, um denn Sinn technisch lupenreiner Verbesserungen zu erläutern. ^^
 
  • Gefällt mir
Reaktionen: Bhaal3010, Bullbumba, Tkohr und eine weitere Person
Vitche schrieb:
Ich sehe aber schon, im tatsächlichen Test einer ersten finalen 8000-Hertz-Maus werde ich wohl weit ausholen müssen, um denn Sinn technisch lupenreiner Verbesserungen zu erläutern. ^^

Und bitte auch Latenzmessungen mit Highspeed-Kamera wie von Battlenonsense, um Maustreibercheats zugunsten der 8000 Hz-Einstellung zu entlarven.
 
Irgendwie erinnert Vitche mich an diese "Audio HighEnder" mit ihren laufrichtungsgebundenen Kabeln (blöd nur, dass Audiosignale Wechselspannungen sind...), Klangschälchen und auf den Gehäusen der Geräte aufgeklebten Schwingungsabsorber... Messwerte und Blindtests sind da wie Kruzifixe und Silberpatronen, Fakten können keine genannt werden, nur "Aber ich höre es doch" und Leute mit gegenteiliger Meinung werden niedergemacht. ;)
 
Zuletzt bearbeitet:
Vitche schrieb:
...
Ich sehe aber schon, im tatsächlichen Test einer ersten finalen 8000-Hertz-Maus werde ich wohl weit ausholen müssen, um denn Sinn technisch lupenreiner Verbesserungen zu erläutern. ^^

Du versteht die Technik hinter Non USB Interrupt einfach nicht. Es gibt keine Zusicherung über Latenz, Bandbreite und Datensicherheit. Im Idealfall funktioniert es. Wenn das System Daten nach lädt oder irgendwie anders beansprucht wird, ist es reiner Zufall, ob Pakete ankommen und wie stark diese verzögert werden. Im Idealfall klappt es, was wenn es im entscheidenden Moment halt 10ms Latenz gab, dann dann sehen die 1ms zugesicherte Interrupt Transfers schon wesentlich besser aus.
Und wie schon geschrieben, über eine einfache UART Anbindung bekommst Du zugesicherte 10kHz, wenn Du das möchtest, mit einer festen minimalen Latenz, CPU Interrupt gesteuert. Natürlich nur im Kernel Mode. Aber diese Technik ist halt schon Jahrzehnte alt und lässt sich halt nicht mehr verkaufen.
Und noch mal. Wenn man ein eigenes Maus Protokoll verwendet und mit Geschwindigkeit und Beschleunigung erzeugt, meinetwegen als Single oder Double Werte sendet, dann kann diese Genauigkeit viel besser erzeugen.
Aber auch hier muss man bedenken, dass Windows kein Soft Real Time OS ist und schon gar nicht ein Hard Real Time. Es gibt keine Zusicherung über Latenzen und man sollte sich auch mal die Cotext Switching Times von Windows anschauen.
Also außer Marketing Geblaber bleibt nicht viel von der Technik und ein Fortschritt ist es schon gar nicht, wenn man Technik falsch verwendet. Das ist so wie die "800Hz" Fehrnseher von Philips.

P.S.
Es gibt Fachleute, die sich mit Low Latency Anwendungen beschäftigen und von Latenzen zwischen 80-160µs und Aussetzern bis zu 2000µs schreiben. Und dann kommt da irgendein daher gelaufender Maushersteller und löst das Problem mit 125µs auf einem stark belasteten PCs. Ne ist klar.

Ich würde eher schreiben, dass die Nachrichten unter 4000µs verarbeitet werden und es ist bei Mausbewegungen halt irrelevant, wenn diese halt verzögert zusammengerechnet werden.
 
Zuletzt bearbeitet: (P.S.)
Vitche schrieb:
Dennoch, ich führe noch einmal aus: Das ist im Grunde genommen die gleiche Debatte wie zwischen 240 und 360 Hertz bei Bildschirmen. Ein einzelner aus dem Kontext gerissener Datenpunkt à la "1 ms kann kein Mensch differenziert wahrnehmen" ist Unsinn, da eben das bei einer stetigen Mauszeigerbewegung bzw. Bildfolge schlichtweg nie der Fall ist.
Nein, das ist nicht die gleiche Debatte, da z.B. 144FPS bei 144Hz oder 240FPS bei 240Hz nativ ist. 8000Hz bei ner Abfrage von 1000Hz, ist nicht mehr nativ.
und nicht mal Profispieler wie Shroud profitieren von 144Hz zu 240+Hz.
 
Zuletzt bearbeitet:
JackA schrieb:
Nein, das ist nicht die gleiche Debatte, da z.B. 144FPS bei 144Hz oder 240FPS bei 240Hz nativ ist. 8000Hz bei ner Abfrage von 1000Hz, ist nicht mehr nativ.
Ich glaube hier reden aller dauerhaft aneinander vorbei. Lies bitte einfach den Bericht, es sind native 8000 Hertz, das ist doch eben Kern des ganzen Texts.
ebird schrieb:
Also außer Marketing Geblaber bleibt nicht viel von der Technik und ein Fortschritt ist es schon gar nicht, wenn man Technik falsch verwendet. Das ist so wie die "800Hz" Fehrnseher von Philips.
Du hast den Text also immer noch nicht gelesen? Hast du dir die Diagramme angeschaut? Die 8000 Hertz werden nicht zusammengemogelt, sondern liegen nativ an. Natürlich sind sie nicht auf die Mikrosekunde genau, aber das wurde im Text auch thematisiert. Bei einer geringeren Latenz sind eben diese Ausreißer auch kleiner, darum geht es unter anderem.

Es ist doch sowieso lächerlich, dass ich das in über Wochen in der Praxis und in Blindtests mit mehreren Personen teste und dann im Forum gesagt wird, "nein, das stimmt nicht". 🤦🏼‍♂️
 
Zuletzt bearbeitet:
Zurück
Oben