Gestensteuerung — Neue Kommunikationswege zwischen Mensch und Maschine

Gesten sagen mehr als tausend Worte — Wir winken uns zu, bestätigen eine tolle Leistung mit einem Daumen nach oben oder schütteln verzweifelt mit dem Kopf, wenn wieder mal etwas schief gegangen ist. Gesten sind Teil unseres Seins, unserer Kultur und unserer Sprache. Es ist also nicht verwunderlich, dass es immer mehr Überlegungen gibt, inwiefern unsere Gestik nicht auch bei der Kommunikation zwischen Mensch und Maschine zum Einsatz kommen sollte. Doch wie gut können Computer überhaupt einen Fingerzeig verstehen?

Was sind eigentlich Gesten?

Als wichtiger Aspekt der zwischenmenschlichen Konversation werden Gesten bereits in frühen Jahren von Kindern übernommen. Die erlernten Gesten sind dabei aber nicht immer vollkommen universal nutzbar und oft von Kultur zu Kultur verschieden. So verneint man in Japan bspw. ein Angebot, indem man mit der Hand vor dem Gesicht wedelt — eine Geste, die man in Deutschland eher als ein ‚du spinnst doch‘ verstehen würde. Gleichzeitig bedeutet das hierzulande gängige Kopfschütteln in Ländern wie Indien oder Pakistan das genaue Gegenteil — nicht ‚Nein‘, sondern ‚Ja‘.

Es gibt also, wie in den Sprachen selbst, auch bei der nonverbalen Kommunikation kulturelle oder regionale Unterschiede, die zu Missverständnissen führen können. Fakt ist aber, dass uns Gesten seit jeher begleiten und dass durch den digitalen Fortschritt sowie die globale Vernetzung immer mehr einfache Gesten grenzübergreifend genutzt und verstanden werden.

Allerdings stellen Gesten im Vergleich zur Sprachsteuerung bei der Kommunikation mit Maschinen bisher immer noch eher ein Randphänomen dar. Und das, obwohl sich gerade in Zeiten des Internet of Things nahezu unzählige Einsatzmöglichkeiten für intelligente Gestenerkennung ergeben, welche die Customer Experience der Nutzer verbessern können, indem sie ihnen natürlichere und bequemere Möglichkeiten eröffnet, mit Geräten oder Anwendungen zu interagieren.

Neue Mensch-Computer-Interaktionen

Doch auch wenn Touch Screens überall aufzufinden sind und man immer präziser mit ihnen arbeiten kann, gibt es einige Nachteile, die nicht so schnell zu lösen sind. So ist die barrierefreie Bedienung für z-B. sehbehinderte Menschen immer noch nicht ausgereift und wer schon mal mit nassen Händen oder Handschuhen versucht hat, durch sein Smartphone zu navigieren, weiß, dass dies nahezu unmöglich ist.

Deshalb beschäftigt sich die Forschung vermehrt mit innovativeren Lösungswegen, um die Kommunikation zwischen Mensch und Maschine schneller und einfacher zu gestalten. Durch den anhaltenden Fortschritt in Sachen Kameratechnik und Berührungssensoren, scheint es somit langsam nur noch eine Frage der Zeit, bis der Touch Screen zumindest teilweise als Haupteingabegerät ausgedient hat und mittels Gestensteuerung ersetzt wird.

Erste Schritte in der Automobilbranche

Die automatische Erkennung von durch Menschen ausgeführten Gesten mittels eines Computers soll hierbei Abhilfe schaffen. Im Gegensatz zu reinen Näherungssensoren, die auf Infrarot-Technik basieren, nehmen bei der Gestenerkennung 2D- oder 3D-Kameras, die in der Mittelkonsole oder im Lenkrad verbaut werden, ihre Umgebung auf und liefern den Live-Stream direkt an den Computer. Dieser wertet die Aufnahmen postwendend aus und interpretiert die vom Fahrer gewählte Geste.

So kann man in vielen neueren Modellen von BMW z.B. durch das Kreiseln mit einem ausgestreckten Finger die Radiolautstärke anpassen oder durch eine einfache Wischgeste Anrufe oder Verkehrsdurchsagen abbrechen. Und auch neben der eigentlichen Fahrt gibt es bereits Einsatzgebiete. Bei Mercedes wird z.B. die Leselampe zur Unterstützung als ‚Suchlicht‘ eingeschaltet, wenn das System eine Hand erkennt, die auf den leeren Fahrersitz greift.

Zukunftsmusik mit Potenzial

Gleichzeitig haben Gesten eben keine universelle Bedeutung und der Mensch gestikuliert auch, wenn er nicht mit dem System kommunizieren will. Deshalb wird es notwendig sein, dass Gesten individualisiert werden können und von neuen System in einen Kontext gesetzt werden, um zu determinieren, wann es sich tatsächlich um gewollte oder ungewollte Gesten handelt. Es wird also noch einige Zeit dauern, bis der Einsatz von Gestensteuerungen eine Art Ersatz für gängige Eingabemethoden darstellen kann.

Die Kombination aus künstlicher Intelligenz, Sensorik und neuer Tracking-Technologien, die sich auch in der Film- und VFX-Branche rasant weiterentwickelt haben, wird aber zweifellos einen Einfluss auf den weiteren Fortschritt nehmen. Und nicht zuletzt verfügt der Mensch zusätzlich noch über eine Vielzahl weiterer nonverbaler Kommunikationsmöglichkeiten, die zukünftigen Systemen von Nutzen sein können.

So hilft das sogenannte Eye Tracking (Blickerfassung) heute bereits bei der Optimierung von Usability und User Experience im digitalen Kosmos. Hierbei wird z.B. beim Besuch auf einer Landingpage erfasst, wohin der Blick eines Probanden wandert. Was fällt ihm als erstes ins Auge? Wie lange dauert seine Orientierungsphase? Kann er die wichtigsten Informationen und Funktionen (für seine Aufgabe) schnell erkennen oder muss er die Seite mehrmals abscannen?

Bislang kratzen wir aber häufig nur an der Oberfläche, wenn es um die Möglichkeiten sowie Einsatzgebiete dieser neuen Technologien geht. Man darf gespannt sein, welche innovativen Lösungswege in naher Zukunft entstehen, um die User Experience in vielerlei Bereichen zu optimieren und die Mensch-Maschine-Kommunikation auf das nächste Level zu heben.

Innovation Explorer. Design Consultants. User Experience Experts.

Innovation Explorer. Design Consultants. User Experience Experts.