Webcam unter Linux als Eyetracker ? ->Tracklist

Good Die Young

Cadet 1st Year
Registriert
Jan. 2017
Beiträge
9
Ich möchte, dass bei einer Feierlichkeit, die Leute auf einem TV mit Augenkontakt ihre Lieblingslieder auswählen.

Der TV soll in 4 vereiche unterteilt werden, wo man per augenkontakt, also auf das was man schaut musik aktiviert, die dann per Headset übertragen wird.
Die Trackliste auf dem TV sollte ca alle 20 sekunden Wechseln. also wechselt alle 5 sekunden ein Bereich auf dem TV den angezeigten Track.

Außerdem Suche ich gerade aktiv eine Software, die dies ermöglicht.

Das Eye Tracking könnte man mit Camera Mouse realisieren, denke ich
 
Also ich kenne mich jetzt nicht soo gut aus mit Eyetracking, bin aber trotzdem überrascht, dass eine einfache Webcam bei vermutlich eher schlechtem Licht und vermutlich größerer Entfernung die Blickrichtung mehrer Personen so genau erfassen können soll?

Edit: ok, Camera Mouse trackt Kopfbewegungen, unterstellt also, dass der Nutzer immer exakt geradeaus blickt. Auf den Bildern sitzen die Personen aber immer am Schreibtisch davor, gut ausgeleuchtet. Fraglich ist, wie stabil das Headtracking bei mehreren Personen, schlechtem Licht und Entfernung ist!

Richtiges Eyetracking a la tobii eye wirst du dir -sry- abschminken können. Für Headtracking in eher ungünstigen Lichtverhältnissen würde ich Kinect vorschlagen!
 
Zuletzt bearbeitet:
hmm
was kann man da machen ? für den Kontrast der Augen, entsprechende Lichtquellen Verwenden ?
eine Folie auf dem TV aufkleben, welche es ermöglicht, dass man nur von exakt mittiger ausrichtung etwas sieht ?(gibt es afaik für laptops und handys)

Kinect habe ich mir auch schon überlegt, jedoch bekommt Microsoft von mir kein Geld, fertig!

Ansonsten muss wohl ein großer Touch Display her.
 
Mit einer regulären Webcam wird das vermutlich nichts, denke ich. Dafür ist die Auflösung auf Entfernung zu schlecht.
Die besten Chancen in der Richtung hast du aus meiner Sicht nur mit Kinect, da wird auch die Community dazu die größte sein. Dann könnte es mit Handsteuerung z.B. ganz gut klappen. Für mehr reicht meine Phantasie leider nicht, tut mir leid ;-)
 
Open Kinect scheint wohl, die Lösung zu sein.
Theoretisch kann ich damit eine Maus auf einem x beliebigen Bildschirm steuern, wenn ich das richtig verstanden habe.
die Frage wäre halt, ob nur eine Person im raum per blickkontakt auf den Bildschirm den nächsten Track auswählen kann.
Als beispiel mal
Track fängt an -> die Leute tanzen oder stehen komisch blickend in der ecke -> 30 sekunden vor ende des Tracks wird der Bildschirm aktiviert -> Insgesamt werden 42 Tracks auf einem FHD 32" TV angezeigt, entweder mit animation oder ohne, je nachdem wie viel arbeit ich darein investiere -> Person X,Y,Z lehnen an der Wand / A,B und C tanzen / -> Jemand schaut auf den Bildschirm, welcher nichts zu melden hat-}Bidlschirm geht aus{ oder // Person :cheerlead: schaut auf die Trackliste (bildschirm geht nicht aus) -> der Track, worauf am meisten geschaut wurde, wird als nächtes abgespielt.

Letzte frage wäre, ob Kinect in der Lage ist haarfarben zu erkennen, bzw augenfarben, oder die größe der Person erkennt.

Der fernseher, wird so aufgestellt, dass die exacte mitte auf 1,6m höhe ist und die Kinect kommt oben auf den Fernseher, oder lieber darunter ?

Fingersteuerung wär auch okay..

wo bekomme ich einen Fachmann für dieses Software Setup her ?
also mit einem einfachen web cam eye tracker auf dem Notebook wär das ja was anderes
 
Soweit ich mich richtig erinnere hat Kinect eine reguläre Kamera + Tiefensensor (IR?). Mit der regulären Kamera könntest du also bei gutem Licht die Haarfarbe erkennen und mit dem Tiefensensor die Körpergröße.
Versteh mich bitte nicht falsch, aber ich glaube du stellst dir das etwas zu leicht vor bzw. machst dir wenig Gedanken:
- Wie soll eine Kamera eine Haarfarbe verlässlich erkennen, wenn auf einer Party vermutlich nur stark gedimmtes Licht herrscht? Bei Augen ist es noch schwerer bzw unmöglich
- 42 Tracks auf einem 32" TV ist vermutlich schon nicht wirklich angenehm zu lesen, wenn man direkt davor sitzt. Aus 3 Metern Entfernung kann man davon vermutlich nichts lesen.
- die meisten Eckdaten findest du nach etwas Recherche selbst:
The Kinect v2 can physically sense depth at 8 meters. So Yes you can sense objects at 5M. However 4.5M is where you can reliably track body joints. Anything beyond 4.5 meters your body tracking yields inconsistent results. Objects are still sensed, but you have to write custom code to do anything useful, there's nothing in the framework sdk that automatically detects people or objects other than the raw depth values.
Quelle

Alles in Allem scheinst du dich für die Realisierung selbst nicht gut genug auskennen, und ob du tausende Euros in eine Customlösung stecken willst?
 
Zuletzt bearbeitet:
Zurück
Oben