top

STYLEPARK

x

GIRA

Jedi sein wollen

Die Gestenforschung ist noch eine recht junge Disziplin – es gibt das Forschungsfeld erst seit circa 20, 30 Jahren. Ihre Wurzeln liegen in der Sprachforschung, der Psychologie und der Anthropologie, weswegen sich bis heute auch nur wenige Wissenschaftler tatsächlich „Gestenforscher“ nennen. Einer von ihnen ist Julius Hassemer. Zur Gestenforschung kam der 33-jährige über den „Master of Intercultural Communication Studies“ an der Europa-Universität Viadrina in Frankfurt (Oder), von wo aus er zur Promotion ans Natural Media Lab der RWTH Aachen wechselte, um Gesten und deren Formen in einem Motion-Capture-Labor zu untersuchen. Später arbeitete er an einem Forschungsprojekt zur Betonung in Geste und Sprache an der University of London und Universität Münster. Vor kurzem hat ihm die Deutsche Forschungsgemeinschaft zum Thema Geste und Form an der Universität von São Paulo ein Forschungsstipendium zugesprochen. Für technologische Entwicklungen im Bereich Mensch-Computer-Interaktion ist die Geste heute als Eingabemedium präsenter denn je. Ludwig Engel sprach mit Julius Hassemer über den aktuellen Stand der Gestenforschung und ihre Bedeutung für die Steuerung von Geräten und Anwendungen im Wohnraum.


Ludwig Engel: Herr Hassemer, welche Rolle spielen Gesten heute? Was sind die aktuellen Anwendungsgebiete?

Julius Hassemer: Als Anwender sieht man natürlich vor allem die fertigen Produkte, die mit 3D Gestensteuerung ausgestattet sind. Damit meine ich die Möglichkeit, mit einer Körperbewegung im Raum, unabhängig von einer Eingabeoberfläche, einen Befehl zu geben. 3D-Gestensteuerung gibt es heute zum Beispiel in Spielekonsolen, Autos, Laptops und Handys. Die Gestensteuerung beschränkt sich meist auf wenige Gesten, oder der Benutzer muss für eine Anwendung eigens ein Gestenvokabular erlernen - oder beides. Es gibt noch keinen Durchbruch: In keinem Anwendungsbereich scheint die freie Geste als Eingabemedium wirklich angekommen zu sein. Anders sieht es bei Oberflächengesten aus, wie zum Beispiel mit zwei Fingern ein- und auszuzoomen. Das ist gar nicht mehr von Smartphones und Tablets wegzudenken.

Steuerung einer App: Verschiedene Gestentypen entsprechen verschiedenen Unterpunkten im Menü und machen dieses so obsolet.

Warum ging das bei Touch-Gesten so schnell, und bei 3D Gesten nicht?

Julius Hassemer: Ja, das ist überraschend, wenn man bedenkt, dass die Technik zur 3D-Gestenerkennung mittlerweile preisgünstig zu haben ist. Für den kleinen Raum vor dem Computer gibt es zum Beispiel ein Gerät von Leap-Motion für circa 80 Euro, das einfach per USB an den PC angeschlossen wird. Größere Räume erfassen beispielsweise die Sensoren der Spielekonsole Microsoft Kinect, die sogar schon seit 2010 auf dem Markt ist. Trotzdem ist die Gestensteuerung in keinem Anwendungsbereich der Standard, weder beim Smartphone noch im Smarthome. Dabei mangelt es nicht an der Vernetzung: Im Internet der Dinge können heutzutage verschiedene Geräte im Haushalt längst miteinander kommunizieren oder der Benutzer kann sie vom Smartphone aus von überall steuern – aber eben mittels der zweidimensionalen Oberfläche von Handy oder Tablet. Warum es für 3D nicht so schnell geht? Schwer zu sagen. Ein Punkt ist aber sicher, dass wir Menschen es gewöhnt sind, auf unsere Umwelt einzuwirken, indem wir Werkzeuge greifen und anfassen. Wir steuern Geräte, indem wir sie berühren, auf einen Knopf drücken, am Rolladengurt ziehen, den Lichtdimmer drehen. Berührungslos benutzen wir unsere Hände nur zur Kommunikation mit anderen Menschen, zum Beispiel bei redebegleitenden Gesten. Vielleicht ist es genau dann natürlich und intuitiv, mit Gesten eine Maschine zu bedienen, wenn wir tatsächlich das Gefühl haben, dass wir nicht nur Befehle geben, sondern tatsächlich ein wenig mit der Maschine „reden“.

Und Sie denken tatsächlich, dass es bald soweit sein wird, dass die Interaktion mit einer Maschine sich wie eine echte Unterhaltung anfühlt?

Julius Hassemer: Nein. Aber wenn die Gestenerkennung allein darauf beschränkt wird, dass wir eine Schiebebewegung in der Luft ausführen und dann das Schiebedach des Autos aufgeht oder das Rollo an meinem Fenster, dann benutze ich doch lieber einen Schalter, da habe ich wenigstens auch sofort das taktile Feedback durch den physischen Schalter.

Was ist Ihre Arbeit genau und was kann sie beitragen?

Julius Hassemer: Ich mache Grundlagenforschung, die natürlich nicht auf die Schnelle in eine spezifische Anwendung verwandelt werden kann. Aber ich sehe folgendes Dilemma: Heute läuft die Gestensteuerung noch holprig, und technische Fragen stehen im Vordergrund. Die technischen Probleme werden aber mittelfristig gelöst sein und die Hardware wird Körperbewegungen robust erfassen, egal ob ich jetzt direkt vor dem Gerät stehe oder gerade durch meine Wohnung laufe. Eine Masse von Bewegungsdaten steht dann zur Verfügung, das heißt die Information, wo sich jeder Finger zu welcher Zeit im Raum befindet. Dann wird man erst die großen Fragen stellen. Was bedeuten die ganzen Daten jetzt eigentlich? Würde man jetzt mit den Grundlagen anfangen, könnte man später, wenn die Technik reif ist, an einer praktischen Umsetzung arbeiten, die sich zum Beispiel auf grundlegende Gestenkategorien stützt.

Stereotype mit gestrecktem Zeigefinger: In der Wohnung wäre das ein möglicher Befehl, um Informationen eines Gerätes abzurufen. Foto © Tabea Mathern

Was meinen Sie mit grundlegenden Gestenkategorien?

Julius Hassemer: In der Gestenforschung gibt es verschiedene Vorschläge zur Klassifikation von Gesten. Zum Beispiel verschiedene Arten von Zeigegesten, Taktstockgesten, darstellende Gesten und so weiter. Eines der Probleme, die mich dazu bewogen haben eine neue Klassifikation vorzuschlagen, ist, dass vorhandene Kategorien oft schwer in räumlichen Parametern ausgedrückt werden können. Das Besondere der Modalität Geste ist aber, dass die Hand bestimmte Formen und Bewegungsmuster im dreidimensionalen Raum nachempfindet. Und diese Formen und Bewegungsmuster sind der Ausgangspunkt für meine Gestenklassifikation.

Was muss ein Entwickler von den verschiedenen Gestenarten wissen, wenn Geräte im Wohnumfeld mittels Gesten gesteuert werden sollen?

Julius Hassemer: Die gestischen Bedienkonzepte von heute sind entweder sehr eingeschränkt, wie zum Beispiel das Öffnen des Schiebedachs, oder sie beschränken sich auf die konventionelle Menüsteuerung, also eine Liste von Menüpunkten in der man sukzessive auswählt. Natürlich kann man das auch per Geste steuern, nur ist die Bedienung dadurch weder schneller noch leichter geworden – im Gegenteil. Man muss sich vor Augen führen, dass verschiedene Gestentypen verschiedene Funktionen haben und räumliche Informationen anders kommunizieren. Das muss man sich zu Nutze machen. Gehen wir mal von einer komplett gestengesteuerten Wohnung aus: Eine Bewohnerin betritt ihre Wohnung und wundert sich darüber, dass es so kalt ist. Sie möchte nun zwei Sachen machen, die Rollläden hochfahren und erfahren, wie lange heute die Heizung an war. Sie könnte ein Menü auf einem Screen per Geste bedienen und die gewünschten Funktionen heraussuchen – Hauptmenü Punkt 3, dann Unterpunkt 8 und dann an einem Regler drehen und wieder zurück ins Hauptmenü für den nächsten Befehl. Das wäre umständlich und würde das Potential von gestischer Kommunikation ignorieren. Eine hebende Bewegung mit flacher Hand, Handfläche nach oben, in Richtung der Rollläden (siehe folgendes Bild unten) und eine einfache Zeigegeste mit dem Zeigefinger auf die Heizung (siehe vorheriges Bild) könnten die Funktionen direkt ausführen. Die Infos, die der Computer benötigt, könnten dann auf einem Screen wiedergegeben werden oder erfolgen einfach akustisch. In diesem Fall ersetzt der Gestentyp – hebende Geste versus Zeigegeste – die Auswahl im Menü. Würde sie eine Zeigegeste auf die Rollläden und eine hebende Geste Richtung Heizkörper ausführen, wäre der Effekt, dass die Heiztemperatur angehoben wird und zusätzlich darüber informiert wird, wie lange die Rollläden heruntergelassen waren. Eine kluge Unterscheidung von Gesten ersetzt also das Menü.

Hebende Geste mit flacher Hand: In der Wohnung könnte das ein Befehl sein, die Rollläden hochfahren zu lassen oder die Heiztemperatur anzuheben.
Foto © Tabea Mathern

Werde ich nicht als Mensch dann durch die Maschinen in meinem Handeln und Gestenspektrum beeinflusst? Kann ich mich dann noch frei bewegen – ohne das gleich etwas passiert?

Julius Hassemer: Genau, das ist eine wichtige Frage und auch eine, die relevante praktische Konsequenzen hat: „Wann bin ich an?“ Soll die Gestensteuerung immer an sein? Dann würden ständig die Bewegungsdaten erfasst werden, was aus Datenschutzperspektive heikel ist. Und gibt es sowas wie eine an/aus-Geste, mit der die Gestensteuerung aktiviert wird? Wie soll so eine an/aus-Geste aussehen, dass man sie nicht aus Versehen ausführt? Es müsste eine Geste sein, die schnell ist, wenig Aufwand benötigt, und in jeder Situation machbar ist. Die Hände sind zum Beispiel oft beschäftigt, die Füße auch, der Blick muss hingehen können wo er hin will, und so schränkt man sich kontinuierlich ein. Vielleicht ist es die Augenbraue, manche Menschen können die aber nicht separat bewegen – oder eine kurze Gestenkombination. Das sind sehr praktische Probleme, die aber verhältnismäßig leicht lösbar sind.

Wohin führen diese Anwendungen in der Wohnung von morgen?

Julius Hassemer: Ich stelle mir vor, dass in einem zukünftigen Wohnumfeld die Technik gar nicht mehr sichtbar ist. Ich brauche weder Smartphones noch eine andere Eingabeoberfläche. Ich habe ja den „Gestenraum“. Ich steuere meine Umgebung über die Sensorik, die in der Wand versteckt ist. Es verändert sich dann eine ganz entscheidende Sache: Der physische Kontakt mit der Technik wäre generell nicht mehr nötig – Berührung wäre den Menschen unter sich reserviert (lacht). Im Film „Her“ ist solch eine virtuelle Realität in einem realen Umfeld eingebettet, wodurch sich die Wahrnehmung des Raumes stark verändert. Der Raum wird durch die Technik aufgewertet. (Hassemer kneift die Augen etwas zusammen und deutet mit ausgestreckten Fingern unbestimmt nach vorn.) Meine Wohnung ist leer. Es ist ein Raum, in dem ich alles machen kann. Mit den Kindern telefonieren, meine Geräte bedienen, oder Yoga im leeren Raum. Das wäre eine Minimierung von Dingen des alltäglichen Bedarfes, weil ich in den Raum zurückkehre, in den vortechnischen Raum, in dem die Technik zwar unsichtbar, aber im Hintergrund omnipräsent ist. Und das kann positiv sein. Technik fühlt sich nicht kuschelig an und gibt mir auch sonst keinen emotionalen Mehrwert. Wenn ein Computer in meiner Trockenbauwand ist, habe ich nie was damit zu tun, ich muss ihn nie berühren.

Ist die Gestensteuerung eine Komforttechnologien für das Luxussegment oder eine technologische Neuerung von der alle profitieren werden?

Julius Hassemer: Gestensteuerung ist nicht für immer verdammt, eine Spielerei für elitäre Luxuswohnungen zu sein, sondern kann im besten Fall zu einem Perspektivenwechsel für die Interaktion zwischen Mensch und Maschine führen. Smartphones stehen heute schon sämtlichen Einkommensschichten zur Verfügung auch wenn sie als Luxusartikel anfingen. Oder die „Nintendo Wii“: inzwischen eine sehr kostengünstige Alternative für Kranke und alte Menschen, da sie zu Hause ein minimales Bewegungsprogramm gemäß ihrer körperlichen Verfassung machen können. Und es ist einfach deutlich günstiger ist als eine Krankengymnastin. Ein Nachfolger dieser Konsole wäre übrigens hervorragend mit einer umfassenden Gestensteuerung im Smart-Home kombinierbar.

Geste, die die Umrisse eines Objektes skizziert. Foto © Tabea Mathern