Blick in Labors

Morgen steuern Gesten, übermorgen Gedanken die IT

Mausklick - Touch - Gestik - Emotionen - Denken: Einstige Science-Fiction-Fantasien in der Mensch-Maschine-Interaktion stehen heute bereits vor der praktischen Anwendung. Modernste Technologien dringen tief in unser Leben vor.

Erinnern Sie sich an den Film Minority Report aus dem Jahr 2002? Tom Cruise steht vor einem halb transparenten, überdimensionalen Bildschirm und steuert es mit seinen Händen. Ohne es zu berühren.

Foto: ra2 studio - Fotolia.com

Ein Interface steuern, ohne es zu berühren? Eine Technologie, welche die Emotionen des Benutzers erkennt? Nutzer, die komplett in eine virtuelle Welt eintauchen? Wenn man im September 2013 über die IFA spazierte konnte man sehen dass all diese Visionen bereits Realität geworden sind. Was bis vor kurzem noch Science Fiction war, ist heute schon vielerorts im Einsatz - unser eigener Körper wird zum wichtigsten Eingabemedium.

Vor 15 Jahren musste man noch Programmierer sein, um überhaupt mit solchen Interfaces in Berührung zu kommen. Vor zehn Jahren wurde die breite Masse erreicht. Vor gerade einmal fünf Jahren läutete das erste iPhone die Touch-Revolution ein. Damals dachte kaum jemand, dass ein Telefon ohne Tasten jemals funktionieren würde. Doch auf einmal war es möglich mit einem Smartphone im Internet zu surfen. Was dann passierte, war der Eintritt in eine unglaubliche neue Welt mit deutlich vereinfachten Interaktionsmöglichkeiten.

Trend zum Interface ohne Eingabeknöpfe

Bis zum damaligen Zeitpunkt musste Software in erster Linie funktionieren. Heute soll sie den Benutzer begeistern. Ihm das Leben erleichtern. Einfach sein - und darüber hinaus Idealerweise unglaublich gut aussehen. Der Trend geht hin zum graphisch übersichtlichen stylischen textbasierten Interface ohne Knöpfe. iOS 7 ist dafür ein gutes Beispiel. Einige Funktionen wie zum Beispiel das Löschen einer einzelnen E-Mail ist hier nur mit Hilfe von Gesten möglich. Dabei besteht allerdings höchste Vorsicht. Wichtige, zentrale Funktionen hinter komplizierten Gesten zu verstecken, kann eine Benutzeroberfläche im schlimmsten Fall unbedienbar machen. Apple verlässt sich hierbei auf gelernte Gesten, die mittlerweile die meisten User kennen.

Touch-Kids fordern Innovationstempo ein

Wir leben heute im Zeitalter der so genannten Touch-Kids. Sie sind mit berührungssensitiven Geräten aufgewachsen und dementsprechend "verwöhnt". Sie haben ganz neue Erwartungen an das Erlebnis und die Performance einer Benutzeroberfläche, als ältere Nutzer, die noch mit früheren User-Interfaces in der IT-Welt sozialisiert wurden. Die jungen User sind zwangsläufig verwöhnt, weil sie es nicht anders gewohnt sind. Alles was nicht die Performance eines aktuellen iPads erreicht, wird deren Standards nicht gerecht. Für diese Touch-Kids geht es heute darum wie sich etwas "anfühlt". Wenn ein Interface nicht die erwartete Reaktion zeigt, klicken User meistens fester und mehrfach. Das führt in der Regel zu einer Mehrfachauswahl. Oder zu einer Falschen. Jedenfalls nicht zur gewünschten Auswahl.

Die Erwartungen der User sind den Entwicklern oft weit voraus. Vormals sinnlos erscheinende Ideen werden manchmal im Nachhinein zu Game-Changern. So wurde beispielsweise das analoge Telefon entwickelt ohne konkrete Anwendungsmöglichkeiten. Gegen Ende des 19. Jahrhunderts wurde es zuerst verwendet, um Konzerte und Gottesdienste zu übertragen. Erst später kam der eigentliche Zweck des Telefonierens zum Einsatz. Manchmal wird ein Produkt, das zuerst erfolglos war, zweckentfremdet und es wird zu einem Bestseller.

Grenzen zwischen realer und virtueller Welt schwinden

In der aktuellen Entwicklung von User-Interfaces geht es zunehmend darum, die digitale mit der realen Welt zu verbinden. Um eine Augmentation und Bereicherung des Erlebnisses. Alle Sinne des Menschen müssen angesprochen werden. Er mag eingebunden werden - nach dem Motto: Involviere mich und ich werde verstehen. Die intelligente Google-Brille (Google Glass) ist das bekannteste Beispiel dafür. Sie reichert die Umgebung des Brillenträger mit Informationen zu seiner Umwelt an, indem sie ihm etwa den Weg zur nächsten U-Bahn-Station weist oder Wikipedia-Einträge zu historischen Gebäuden ins Sichtfeld projiziert. Dabei spielen die Grundsätze Portabilität und Wearability eine zentrale Rolle.

Alles wird vermessen, sogar Vitalfunktionen

Gut zu beobachten ist das bei der so genannte Quantified-Self-Bewegung. Die Idee dahinter ist, dass Nutzer mit Hilfe von Sensoren permanent Daten über wesentliche Körperfunktionen erheben, sie mit Hilfe von Software auswerten, um Persönlichkeitsentwicklung und Gesundheit zu fördern und zu beobachten. Mittlerweile veranstalten Interessenten in weltweit mehr als 50 Städten regelmäßig stattfindende "Meetups". Dabei sollen Lösungen auf Basis persönlicher Daten erstellt werden. Beispiele dafür sind etwa das "Nike+Fuelband" oder das "UP"-Armband von Jawbone. Diese wearable Electronics wurden mittlerweile so stylisch designt, das sie gerne getragen werden.

Auch in anderen Segmenten des Alltags machen sich intelligente Sensoren breit. So genannte Smart Objects verbinden mittlerweile von einander unabhängige, alleinstehende Geräte via Internet oder lokalen Netztechniken. Zuhause spricht der Rauchmelder mit einem gekippten Fenster und der Dunstabzugshaube. Relevante Informationen werden gesammelt und gefiltert auf einem Smart Device angezeigt. Der Hausbesitzer bekommt beispielsweise die Meldung, dass sein Hund soeben in den Garten gegangen ist.

Das Münchner Start-Up Tado betreibt derzeit einen Betatest mit einem Thermostat, das die Heizung herunter regelt, sobald der Bewohner das Haus verlässt, und sie rechtzeitig wieder aktiviert, wenn er sich auf den Heimweg macht. Hierzu erfasst das System die Geo-Daten des Smartphones des Hausbesitzers. Sollte der auf Geschäftsreise sein und nicht nach Hause kommen, wird die Heizung erst gar nicht erst aktiviert. Dies soll Heizkosten sparen und nebenbei die Umwelt schützen.

Auch in der Werbung und im Konsumgütermarkt tun sich mit den neuen Eingabemedien völlig neue Formen der Kundenansprache auf: ein Konsument steht vor einer riesigen Videowand und sieht das Produkt, für das er sich interessiert, in Originalgröße vor sich. Er ändert die Farbe des Produkts durch einen Schritt zur Seite. Wechselt das Modell indem er mit der Hand eine "wischende Geste" zur Seite macht. Bestätigt die Auswahl indem er den Daumen hoch hält. Die Technologie des Systems erkennt in Millisekunden, ob der Kunde mit seiner Auswahl zufrieden ist. Das ist keine Zukunftsvision, sondern in ersten, modernen Showrooms und Shops bereits Realität.