Maus: warum hohe DPI, wenn man einfach Sensitivität erhöhen kann?

Alphadude

Lt. Commander
Registriert
Dez. 2012
Beiträge
1.345
Hallo,

Mäuse mit hohen DPI kosten ein Vielfaches mehr als stinknormale Office-Mäuse mit bis zu 1000 DPI. Mir erschließt sich der Sinn des Ganzen nicht, da DPI allein ohnehin nix aussagen, weil immer die Sensitivität als Faktor bei der Berechnung eine Rolle spielt. Oder um es anders zu formulieren: Sind DPI nicht absolut irrelevant, wenn man das Ganze auch über die Sensitivität steuern kann? Ich meine, ich spiele zurzeit mit einer 5€-Maus und spüre keinen Unterschied zu teuren Geräten. Klar sind Sensitivität und DPI 2 verschiedene Paar Schuhe, aber de facto merkt man keine Qualitätseinbußen - egal ob man mit hoher DPI und niedriger Sensitivität oder umgekehrt zockt.

Ist das also wirklich irrelevant oder kann jemand anhand eines Beispiels veranschaulichen, warum DPI evtl. doch wichtiger sein könnten?

Danke im Voraus.

dpi.png
 
  • Gefällt mir
Reaktionen: Ratsucher0815
Vergleich mal ein 96 DPI Monitor mit einem 200 DPI. Beide können ein Bild gleich groß anzeigen, aber...
96 DPI ist verpixelt. (siehe e.g. https://www.google.de/search?q=reti...CAsQAw&biw=2560&bih=1327#imgrc=FQBaVUkTG0McBM für eine Auwahl.)

Was bei einem Bildschirm Pixel sind, sind bei einer Maus die Punkte, wie sie an den PC übermittelt werden können. Beides bildet ein Raster. DPI sagt aus wie viele Punkte des Rasters pro Zoll Strecke liegen (Dots Per Inch). Höhere DPI = mehr Punkte pro Zoll = Punkte sind dichter beieinander.

Mehr DPI <=> genauer/präziser.
Sensitivity ist quasi der Digitalzoom.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Ein Beispiel, hmm...

Also wenn du mit deiner Maus mit 400 DPI die gleiche Strecke wie mit der 1200 DPI Maus zurücklegst, dann kann die 1200 DPI Maus 3x genau die Bewegung erkennen.
Wenn du mit einer 400 DPI Maus auf einem 4K Monitor arbeitest und einfach die Geschwindigkeit hochschraubst, versuch mal z.B. in Paint einen Kreis zu malen und vergrößer das Ergebnis. Da solltest du erkennen, dass die Maus "Sprünge" macht und nicht genau deiner Bewegung folgen kann.

Bei Spielen kann das z.B. den Unterschied machen, ob du auf große Entfernung mit dem Fadenkreuz den Kopf triffst oder über dein Ziel hinausschießt, weil die Maus bei kleineren Entfernungen mit schneller Bewegung ungenauer wird.
 
  • Gefällt mir
Reaktionen: Tiimati
Ansich ist die Beobachtung richtig, man braucht definitiv keine abartig hohen DPI.
Vernünftige aktuelle Sensoren tracken allerdings doch deutlich linearer und zuverlässiger als das was man in 0815 Office Mäusen findet. Zudem bekommst du bei Gaming Mäusen in der Regel mehr Knöpfe und erweiterte anpassbarkeit und Makros via Software.
Wenn du aktuell gut klarkommst und sonst nichts vermisst gibt es keinen Grund zu wechseln, zumindest nicht aufgrund der DPI.
Der einzig Relevante Bereich sonst ist der Desktop bzw. 2D Umgebungen. Da wird deine DPI bei Windows Standardeinstellunge quasi 1:1 in Pixel umgesetzt, was bei höheren Auflösungen und wenig DPI etwas langsam werden kann. Die Windowseinstellungen über 6/11 sind nicht linear und skippen Pixel, allerdings ist das auch kein Beinbruch, so lange man in Spielen Rawinput verwenden kann.

@Hancock @Renegade334 falsch. Die DPI bei Mäusen wird nur erreicht indem das normale Raster weiter unterteilt wird, da gewinnt man genau garnichts an Präzision sondern verliert in der Regel welche ab höheren Werten durch Smoothing. Der einzige Vorteil ist bei z.B. 2000DPI gegenüber 400DPI ein minimal (1-2ms) kürzerer motion delay.
 
  • Gefällt mir
Reaktionen: JackA
Alphadude schrieb:
Ich meine, ich spiele zurzeit mit einer 5€-Maus und spüre keinen Unterschied zu teuren Geräten.
Fakten bitte.
Welche Maus, welche Software, welche Settings?
 
Stormfirebird schrieb:
falsch. Die DPI bei Mäusen wird nur erreicht indem das normale Raster weiter unterteilt wird, da gewinnt man genau garnichts an Präzision sondern verliert in der Regel welche ab höheren Werten durch Smoothing. Der einzige Vorteil ist bei z.B. 2000DPI gegenüber 400DPI ein minimal (1-2ms) kürzerer motion delay.
Das stimmt nur, wenn über die Werte des Sensors gegangen wird, z.B. bei den Mäusen mit 12000DPI bei denen der Sensor eigentlich nur 6000 schafft. Da wird der Rest interpoliert, was vielleicht besser als das Umstellen der Sensity ist, aber trotzdem ziemlicher Murks.
Wenn man weniger Motion Delay haben will dürfte eher eine höhere Abfragerate helfen. Da haben Office Mäuse häufig die Standard USB 125Hz (8ms), während Gaming Mäuse meist mit 500Hz (2ms) oder eher 1000Hz (1ms) betrieben werden.
 
Nein, das ist relativ allgemein gültig seit einige Jahren. Sowas wie native Sensor DPI gibt es IIRC nicht mehr und interpoliert wird auch nur noch selten bei der DPI. Das mit dem motion delay bezog sich explizit auf den Unterschied zwischen den DPI, wobei der Unterschied unmöglich zu erkennen ist, das ist maximal Messbar.
 
  • Gefällt mir
Reaktionen: JackA
@Renegade334 @Hancock
Dass man hier noch über solche Sachen wie DPI diskutieren muss, erschreckt mich etwas, denn das, was ihr hier schreibt, ist teils richtig und teils richtig falsch.
Hier bitte lesen, wure eigentlich schon vor vielen vielen Jahren geklärt!
Zu allerst: DPI?
Einige kennen diese Angabe sicherlich aus dem Bereich von Scannern, Druckern und Digitalkameras.
Dort sagt diese Angabe etwas über die Feinheit aus, über die Pixeldichte um genauer zu sein.

Das trifft im Peripheriebereich, speziell der Computermäuse, auch durchaus zu, allerdings wohl nicht so, wie erwartet. Der Sensor, oder sagen wir die Abtasteinheit einer Maus hat in der Tat mit mehr DPI eine feinere Abtastung, wenn man so will, allerdings sind hier ganz andere Aspekte ausschlaggebend.

Betrachten wir unseren Monitor. Was ist das kleinste Bildsegment, was er darstellen kann, bzw. was wir ansteuern können? Ein Pixel. Ganz egal, wie hoch die Auflösung oder wie groß der Monitor ist. Wir arbeiten nicht genauer als im Pixelbereich, da wir ja nichts zwischen zwei Pixeln ansteuern können. Dieses Pixelraster, bei einem 24“ üblicherweise 1920*1200 oder bei einem 22“ 1680*1050, bietet für uns also die Ausgangssituation.

Also was bewirkt dann die Angabe Dots per Inch?

„Dots pro 25,4mm(1 inch)“ beschreibt das Verhältnis zwischen den Pixeln, die der Mauszeiger auf dem Bildschirm zurücklegt für jede 25,4mm Mausbewegung auf dem Mousepad oder Tisch, oder was auch immer. Das heißt im Endeffekt:


Nicht je höher die DPI-Leistung, desto präziser, sondern…
… je höhere die DPI-Leistung, desto mehr Pixel legt der Mauszeiger pro Mausbewegung zurück.


Heißt also im Klartext: Nicht die ansteuerbare Pixeldichte wird genauer, denn die wird vom Monitor respektive von den Windowseinstellungen bestimmt, sondern nur die Geschwindigkeit des Mauszeigers wird höher.

Der Sinn steckt darin, dass sich daraus ein Komfort ergibt. Wenn man die Entwicklung der Perispheriegeräte betrachtet, sind 200DPI oder meinetwegen schon 400DPI für Kugelmäuse damals zu 486er-Zeiten durchaus ausreichend gewesen. Der Grund: Bei einer Arbeitsumgebung von 640*480 oder 800*600 ist die gefühlte Strecke im letzten Fall nicht kleiner als bei 1680*1050 mit einer 800DPI-Maus beispielsweise. Mit steigender Auflösung machen Mäuse mit mehr DPI-Leistung also durchaus Sinn.


Welchen Sinn hat dann die Mauszeigergeschwindigkeit in Windows oder im Maustreiber?

Was machen Windows oder der entsprechende Treiber eigentlich, wenn man die Zeigergeschwindigkeit erhöht oder senkt?

Die einen könnten ja auf die kluge Idee kommen und sagen, es sei ja alles nur Marketing. Ich kann doch einfach die Sensitivity erhöhen und schon habe ich meine höhere Geschwindigkeit. Andersrum gibt es Leute, die festgestellt haben, dass ihnen beispielsweise 2000DPI zu schnell sind. Aber auf „Präzision“ verzichten will auch niemand, also wird stattdessen die Sensitivity in Windows gesenkt oder in beiden Fällen mit mit Beschleunigung gearbeitet.

In beiden Fällen ist das Resultat identisch: Es ist nahezu sinnlos. Hierzu muss man wissen, was die Sensitivity in Windows oder im Treiber genau macht. Angenommen, meine Maus hat 1600DPI, was mittlerweile zum gängigen Standard avancierte. Ich gehe also hin und senke die Geschwindigkeit in Windows um die Hälfte, also ungefähr ein Viertel des gesamten Schiebereglers.

Soweit so gut, die Maus wird langsamer, aber was ist passiert? Das Verhältnis zwischen zurückgelegter Strecke mit der Maus und der Zeigergeschwindigkeit auf dem Bildschirm hat sich geändert. Wir arbeiten aber immer noch pixelgenau. Wie kann es sein, dass ich dann bei 1600DPI die Maus 50,8 statt 25,4mm bewegen muss?

Die Antwort kann nur lauten: Es kann nicht sein. Und es ist auch nicht so.

Wir bewegen die Maus mit 1600DPI also einen Inch, also 25,4mm von links nach rechts über das Pad.
Der Zeiger sollte sich jetzt bei Defaultsettings und einem 22“ mit nativer Auflösung von 1680*1050 von der linken Monitorseite zur Rechten bewegen (natürlich mit 80Pixeln weniger). Ganz klar, die Maus hat 1600DPI. Also 1600Pixel pro bewegten 25,4mm.
Wie kann es dann sein, dass ich mit 1600DPI und halbierter Windows-Sensitivity die Maus 50,8mm bewegen muss?

Die Schieberregler für Zeigergeschwindigkeit lassen bei einer Senkung der Geschwindigkeit Signale, sprich Bewegungsinformationen, weg oder um evtl. genauer zu sein: Windows hat eine Art Delay, welches dann wartet, bis der Bewegungscount voll ist. Angenommen, die Maus sendet 1600 Signale an Windows. Windows sagt dann, das ist schön, aber zu viel des Guten. Der Anwender will um die Hälfte weniger. Also lässt Windows oder der entsprechende Treiber die Hälfte der Signale einfach weg, bzw. ein Bewegungscount will dann mit der doppelten Menge an Signaldaten gefüttert werden, bis sich der Zeiger dazu entschließt, sich zu bewegen.

Daraus folgt, dass der Schieberregler in Windows auf ca. 1/4-Stelleung (Mitte, also 6 von 11 oder 1/2 ist default) das Verhältnis auf 800 statt 1600 gedrosselt hat.

Umgekehrt verhält es sich bei einer Erhöhung. 1600 Signale erreichen Windows und selbiges denkt sich… Hm, was mach ich jetzt? Das ist zu wenig! Der Anwender will aber mindestens das Doppelte an Speed! Die Maus sagt: Pech, ich kann nicht mehr.

Windows geht also hin und improvisiert. Die Signale werden gestreckt, wie man Saft mit Wasser streckt um das Glas vollzubekommen. Nur Saft schmeckt dann verdünnt und nicht so intensiv. Genau ist es auch mit den Signaldaten. Das Resultat:

Bei jeder Bewegung wird ein Pixel übersprungen. Zwei Pixel statt einem Pixel pro Bewegungscount bedeutet natürlich, dass sich die Geschwindigkeit verdoppelt und sich das Verhältnis von 1600DPI auf 3200DPI erhöht. Bei diesem Vorgang arbeiten wir logischerweise nicht mehr Pixelgenau.

Beschleunigung macht nichts anderes. Verlangsamt oder fügt Bewegungssignale hinzu hinzu. Und das auch noch unlinear, je nach Beschleunigung des Mauskörpers respektive der abtastenden Einheit!

Jedoch kann man so ein wenig tricksen. Da Windows bei der Verlangsamung mit Delays arbeitet, kann man mit erhöhter Sensitivity und aktivierter Beschleunigung trotzdem bis zu einem bestimmten Punkt Pixelgenau arbeiten. Natürlich ist dann die Präzision bei hoher Geschwindigkeit traurig. Muss man eben abwägen, ob man diesen Weg geht. Ein Pixel daneben kann das Treffen eines Buttons negieren, dessen sollte sich jeder bewusst sein.


Was heißt das jetzt für den Endanwender? Wieviel DPI brauche ich?

Nicht zu wenig! Die DPI-Leistung der Maus ist egal, solange sie nicht zu wenig hat. Senken kann man immer. Draufpacken geht nur mit Verlust an Pixelgenauigkeit. Das ist das Wichtigste, was es zu beachten gilt.
Quelle: Siehe Signatur.
PS: Da wäre ja jeder der 90+% Pro-Gamer dumm, die Lowsens mit 200/400/800 CPI zocken.
 
  • Gefällt mir
Reaktionen: JAIRBS
Stormfirebird schrieb:
Sowas wie native Sensor DPI gibt es IIRC nicht mehr und interpoliert wird auch nur noch selten bei der DPI.
Da bin ich tatsächlich veraltet. Meine Maus hat noch einen Sensor mit 5700CPI, kann aber auf 11400 eingestellt werden, was halt nur eine Software Schummelei (Interpolation) ist. Das es so etwas nicht mehr gibt kann gut sein.

@JackA: Eigentlich liest sich dein Text in etwa so wie ich das meinte. Vielleicht habe ich mich schlecht ausgedrückt, aber ich suche noch nach den Unterschieden in der Aussage.

Das einzige was mir ins Auge springt:
Nicht je höher die DPI-Leistung, desto präziser, sondern…
… je höhere die DPI-Leistung, desto mehr Pixel legt der Mauszeiger pro Mausbewegung zurück.


Heißt also im Klartext: Nicht die ansteuerbare Pixeldichte wird genauer, denn die wird vom Monitor respektive von den Windowseinstellungen bestimmt, sondern nur die Geschwindigkeit des Mauszeigers wird höher.
Das wäre für mich aber mehr (mögliche) Präzision. Wenn ich einen höher auflösenden Sensor habe, kann ich mehr Pixelstrecke zurücklegen ohne Genauigkeit zu verlieren (ohne skalieren zu müssen).
Mir geht es explizit nicht um irgendwelche Einstellungen, z.B. eine 12000DPI Maus mit 400 DPI auszulesen, sondern nur um den Sensor in Hardware und dessen Auflösung, also ein empfindlicher 12000DPI Sensor verglichen mit einem groben 400DPI Sensor.
Da bin ich, auch nach deinem Zitat, noch auf dem Standpunkt mehr Auflösung => höhere Genauigkeit.

Jetzt frage ich mich aber schon ob ich da einen Denkfehler habe oder es ein Misverständnis gibt.
//edit: Und vor allem, welcher Teil teils richtig falsch. ist, damit ich mich da noch einmal einlesen kann...
 
Zuletzt bearbeitet:
JackA schrieb:
@Renegade334 @Hancock
Dass man hier noch über solche Sachen wie DPI diskutieren muss, erschreckt mich etwas, denn das, was ihr hier schreibt, ist teils richtig und teils richtig falsch.
Hier bitte lesen, wure eigentlich schon vor vielen vielen Jahren geklärt!

Quelle: Siehe Signatur.
PS: Da wäre ja jeder der 90+% Pro-Gamer dumm, die Lowsens mit 200/400/800 CPI zocken.
Ne Frage: Was hat der Cursor und der Bildschirm mit ner Maus zu tun? Eine Maus ist erst einmal ein Eingabegerät. Gelten all diese Aussagen für Raw Input, Linux, Android, ...? Deine Ausführung scheint sich alleine auf WM_MOUSEMOVE und Windows-Cursor-Verhalten zu beziehen?

Ich hatte mal nen 3000 DPI oder so Laser-Maussensor an der Hand (10 kHz Abtastrate, ein ADN9600???). Also nur den Sensor, nix Maus oder USB, dazu ein Pi mit SPI, war ein lustiges Gebastel mit 30x30 Pixel, quasi eine SPI-Kamera für 2 €. Wenn ich das Ding einmal über Papier geschnippt habe, hat er 5 clicks Movement zwischen zwei Timesteps ausgegeben (maximum) bei schneller "normaler" Benutzung waren es eher vereinzelt ein click. War lustig anzuschauen.

Wenn das mit der Filterei und Delay so ein Problem ist, bau ich mal ne Maus mit nem FPGA und Custom Treiber für "Zero"-Lag (SPI zu FPGA, ~1µs, FPGA mit PCI-E, via DMA wird die Ausgabe von dem Sensor direkt in den RAM geschrieben, 100 ns, ein Userspace Thread injiziert sich in den Shooter und pollt den RAM an der Stelle und löst direkt ein SendMessage/RawHid... aus, wenn was passiert => 1 Context-Switch delay, also ca. 100 ns (ohne TLB Miss) idealerweise, ein Gamer kann ja sicherlich einen ganzen Kern für sein Input-device abstellen, damit er ne Latenz von ~2 µs hat).


Ich schweife ab, danke für den Text.
 
  • Gefällt mir
Reaktionen: Renegade334
Danke euch, insbesondere das Beispiel von @Renegade334 war sehr anschaulich. Und die Quelle von @JackA hat auch geholfen. Ich zocke zurzeit ohnehin nur langsame Games und habe mir gestern ne Logitech B100 für 6€ geholt. Ordentliche Peripherie gibt es dann erst wieder mit dem neuen PC. ;)
 
  • Gefällt mir
Reaktionen: Renegade334
Zurück
Oben