Schattenblick →INFOPOOL →NATURWISSENSCHAFTEN → TECHNIK

INFORMATIONSTECHNOLOGIE/977: Smartphone versteht Handzeichen (idw)


Eidgenössische Technische Hochschule Zürich (ETH Zürich) - 08.10.2014

Smartphone versteht Handzeichen



ETH-Professor Otmar Hilliges und seine Mitarbeiter haben eine neue App entwickelt, mit welcher Nutzer ihr Smartphone auch mit Gesten bedienen können. Dies erweitert den Umfang möglicher Interaktionen mit den Geräten.

Etwas eigenartig sieht es anfänglich schon aus: Mit der einen Hand hält man das Smartphone, die andere Hand hingegen bewegt sich in der Luft vor der eingebauten Kamera. Man macht Gesten, die denjenigen aus der Gebärdensprache von Gehörlosen ähneln: Der Zeigefinger zeigt mal nach links, mal nach rechts, die Finger spreizen sich, formieren sich zu einer Zange oder imitieren eine Pistole und drücken ab. Diese Gesten dienen allerdings nicht der Verständigung unter Gehörlosen, sondern der Steuerung des Smartphones.

So kann ein Nutzer mit der Schiessbewegung der Hand beispielsweise in einen anderen Browser-Tab wechseln, den Kartenmodus von Satellitenbild auf Topographische Darstellung ändern oder in einem Game auf gegnerische Flugzeuge schiessen. Durch das Aufspreizen der Finger vergrössert sich ein Kartenausschnitt oder scrollt eine Buchseite hinauf.

Hinter dieser Gestensteuerung steckt ein neuartiger Algorithmus, den der Masterstudent Jie Song aus der Arbeitsgruppe von Otmar Hilliges, Professor für Computerwissenschaften, entwickelte. Die App stellten die Forscher soeben an der UIST-Konferenz in Honolulu, Hawaii, dem Fachpublikum vor.


Clevere Programmierung schont Arbeitsspeicher

Um die Umgebung wahrzunehmen, verwendet das Programm die eingebaute Kamera des Geräts. Tiefen- oder Farbinformationen wertet es nicht aus. Die gewonnene Information - Form der Geste, Teile der Hand - werden auf einen einfachen Umriss reduziert, dieser schliesslich anhand der einprogrammierten Gesten klassifiziert. Je nach wahrgenommener Geste führt das Programm schliesslich den daran gekoppelten Befehl aus. Das Programm erkennt auch die Distanz, in der sich die Hand vor der Kamera bewegt. Ist die Hand zu nah oder zu weit davon entfernt, erhält der Benutzer einen Warnhinweis.

«Viele dieser Bewegungserkennungs-Programme sind rechenintensiv und brauchen viel Arbeitsspeicher», betont Hilliges. Dieser Algorithmus brauche hingegen nur einen geringen Anteil des Arbeitsspeichers und sei deshalb für Smartphones gut geeignet. Diese Anwendung sei die erste ihrer Art, die auf einem Smartphone laufe. Aufgrund des geringen Rechenbedarfs könnte sie auch für Smart Watches oder in Augmented Reality-Brillen genutzt werden.


Ergänzende Steuerung

Zurzeit kann das Programm sechs verschiedene Gesten erkennen und entsprechende Befehle ausführen. Ausprobiert haben die Forscher 16 Umrisse, was allerdings nicht dem theoretischen Limit entspricht. Wichtig ist, dass Gesten eindeutige Umrisse erzeugen. Sind verschiedene Handzeichen einander zu ähnlich, taugen sie nicht für diese Applikation. «Um den Funktionsumfang zu erweitern, werden wir weitere Klassifizierungsschemen im Programm hinterlegen», sagt der ETH-Forscher. Für ihn ist klar, dass diese neuartige Art und Weise die Eingabemöglichkeiten bei einem Smartphone erheblich erweitern. Ziel der Forscher ist es, die Gesten so einfach wie möglich zu halten, um das Gerät mühelos bedienen zu können.

Ob sich die Benutzerinnen und Benutzer von Smartphones an die Gesten-Bedienung ihres Geräts gewöhnen werden? Otmar Hilliges ist zuversichtlich. Die Gestensteuerung werde die Steuerung über den berührungsempfindlichen Bildschirm nicht ablösen, sondern ergänzen. «Die Leute haben sich auch an die Bedienung von Computerspielen durch ihre eigenen Bewegungen gewöhnt.» Touch Screens hätten ebenfalls eine sehr lange Vorlaufzeit gehabt, ehe sie schlagartig den Weg zu den Konsumenten gefunden hätten. Hilliges ist deshalb überzeugt, dass diese Applikation oder zumindest Teile davon den Weg in die Märkte finden.

Referenz
Song J, Sörös G, Pece F, Fanello S, Izadi S, Keskin C, Hilliges O:
In-air Gestures Around Unmodified Mobile Devices,
ACM User Interface Software and Technology Symposium, Honolulu, Hawaii, 7. Okober 2014.


Weitere Informationen unter:
https://www.ethz.ch/de/news-und-veranstaltungen/eth-news/news/2014/10/smartphone-versteht-handzeichen.html

Kontaktdaten zum Absender der Pressemitteilung unter:
http://idw-online.de/de/institution104

*

Quelle:
Informationsdienst Wissenschaft e. V. - idw - Pressemitteilung
Eidgenössische Technische Hochschule Zürich (ETH Zürich),
News und Medienstelle, 08.10.2014
WWW: http://idw-online.de
E-Mail: service@idw-online.de


veröffentlicht im Schattenblick zum 10. Oktober 2014