MWC: Windows-Tablet mit Blicken steuern

surface-mit-eye-tracker2

Mit dem Eye Tracker der dänischen Firma The Eye Tribe lässt sich das Windows-Tablet mit den Augen steuern - zumindest ein wenig, denn noch fehlt es an angepassten Anwendungen.

Die Zeiten, da ein Rechner nur per Maus und Tastatur bedient wurde, sind lange vorbei, da Touchscreens sich mit Smartphones und Tablets etabliert haben und mittlerweile auch an vielen Notebooks, All-in-One-PCs und sogar einigen PC-Displays zu finden sind. Doch auch darüber hinaus tut sich viel, was alternative Steuerungsmöglichkeiten angeht: Den Bewegungscontroller Leap Motion hatten wir ja schon ausführlich vorgestellt, nun hatten wir auf dem MWC die Gelegenheit, den Eye Tracker von The Eye Tribe auszuprobieren. Der erfasst die Blickrichtung des Nutzers und setzt diese in Aktionen um, sodass sich Anwendungen allein durch Hinkucken steuern lassen. Vor allem am Tablet kann das praktisch sein, wenn man das Gerät mit beiden Händen hält und trotzdem Eingaben vornehmen kann.

Derzeit befindet sich das Projekt aber noch in einem frühen Stadium, sprich: Es fehlt an Anwendungen, die angepasst sind und auf Blickkontakt reagieren. Damit sich das ändert, stellt The Eye Tribe ein SDK für Windows und Android bereit; das SDK und den zugehörigen Eye Tracker, der mit einer Art Schraubzwinge am Surface Pro befestigt werden kann, gibt es für 99 Euro. Prinzipiell arbeitet der Eye Tracker auch mit anderen Tablets und mit Notebooks zusammen, solange er via USB 3.0 angeschlossen wird, allerdings werden für diese noch keine Halterungen angeboten.

eye-tracker-hand

Der Sensor erkennt die Augen des Nutzers in einem Abstand von 45 bis 75 Zentimetern. Bei einem Abstand von 65 Zentimetern erfasst er einen Bereich von etwa 40 x 30 Zentimetern und registriert Änderungen der Blickrichtung von etwa 0,5 bis 1 Grad. Vor der Nutzung muss er kalibriert werden, wofür der Nutzer auf Zielpunkte in der Displaymitte sowie in den Ecken und an den Rändern des Displays schauen muss. Das dauert nur wenige Sekunden und schon hier zeigt sich, worauf man achten muss: Nicht den Kopf bewegen, sondern tatsächlich nur die Blickrichtung ändern!

Zwei Beispielanwendungen konnten wir auf dem MWC testen: Einen Browser und Fruit Ninja. Im Browser reicht ein Blick nach unten, um auf der Webseite herunterzuscrollen. Nach oben wird per Blick an den oberen Displayrand gescrollt. Weitere denkbare Eingabemöglichkeiten wären in diesem Fall beispielsweise ein Vor- und Zurückblättern durch Blicke an die rechte oder linke Seite des Displays oder das Öffnen eines Links durch zweifaches Zwinkern. Beides war aber nicht implementiert.

In Fruit Ninja dagegen reicht es, die herumfliegenden Früchte anzuschauen, um sie zu durchschneiden. Das klappt wie das Scrollen auf der Webseite gut, allerdings neigt man dazu, im Eifer des Gefechts doch mal den Kopf zu bewegen. Dann ist das Tablet nicht mehr richtig ausgerichtet und die Augensteuerung funktioniert nicht mehr. Hier passiert es dann auch schnell, dass man im Zuge der Neuausrichtung den Haltewinkel des Tablets verändert, sodass der Sensor nicht mehr exakt ins Antlitz des Nutzers blickt - in diesem Fall muss man sich erst wieder an die richtige Positionierung herantasten. Auch, das Tablet zwischendurch wegzulegen und nach kurzer Pause weiterzumachen, ist daher nicht ganz einfach.

Dennoch bleibt festzuhalten, dass diese Form der Steuerung sehr intuitiv ist und weit weniger Übung erfordert als Leap Motion - und auch deutlich weniger anstrengend ist. Für den Endverbraucher lohnt sich der Kauf aber bislang nicht, da es quasi keine passenden Anwendungen gibt. Wenn die irgendwann in großer Anzahl vorliegen, stehen die Chancen sicher nicht schlecht, dass Hersteller von Tablets oder Smartphones die Technik in ihre Geräte einbauen, so wie das HP beispielsweise schon mit Leap Motion macht.

Verwandter Inhalt

comments powered by Disqus