Datenhandschuh bald alte Klamotte?

Forscher der Universität Bonn haben Computern beigebracht, auf Handbewegungen zu reagieren. Das Verfahren könnte die Steuerung von 3D-Anwendungen revolutionieren.

Der Informatiker Markus Schlattmann formt seine Hand zur Pistole. Durch einfache Schlenker seiner Hand steuert er ein virtuelles Flugzeug durch die Alpen. Eine lässige Drehung aus dem Handgelenk, schon kippt der Horizont zur Seite. Nun knickt Schlattmann das Handgelenk nach unten. Brav nickt die Flugzeugnase gen Erdboden.

Markus Schlattmann durchfliegt als virtueller Pilot die Alpen. Foto: Frank Luerweg/Uni Bonn
Markus Schlattmann durchfliegt als virtueller Pilot die Alpen. Foto: Frank Luerweg/Uni Bonn
Foto: xyz xyz

„Handtracking“ nennen die Mitarbeiter aus der Arbeitsgruppe Computergrafik der Uni Bonn ihr Verfahren: Drei Kameras verfolgen die Stellung der Finger, ein Rechner setzt die Bewegungen in Steuerbefehle um. „Das Ganze geht präzise, schnell und intuitiv“, sagt Schlattmann. Er legt den Daumen auf den Zeigefinger, und auf dem Projektionsschirm materialisieren sich ein paar zusätzliche Symbole. Er klickt mit seinem Zeigefinger auf ein Kreuz, und das Fenster mit der Alpenlandschaft verschwindet. Die Leinwand wird schwarz: Demonstration beendet.

„Das Besondere an unserem Verfahren ist, dass wir ohne externe Hilfsmittel auskommen“, so Schlattmanns Kollege Ferenc Kahlesz: „Um Handbewegungen in Echtzeit mit großer Genauigkeit verfolgen zu können, muss man normalerweise zumindest die Finger farblich markieren, damit sich die Software leichter orientieren kann. Oder man braucht dazu einen Datenhandschuh, der die Gelenkstellung per Funk oder Kabel an den Rechner meldet.“

Mit einem einzigen Handschuh ist es zudem oft nicht getan, schließlich haben die Nutzer unterschiedlich große Hände. Das Bonner Verfahren sei da flexibler: Egal ob Kinderpatsche oder Maurerpranke, die Kameras würden genau erkennen, in welche Richtung der Benutzer gerade zeigt und wie seine Handfläche geneigt ist. Die meiste Rechenarbeit erledige dabei eine handelsübliche Grafikkarte. Ein weiterer Vorteil: Man muss das Verfahren nicht initialisieren. Sobald die Hand im Blickfeld der Kameras auftaucht, legt die Tracking-Software los. Bei anderen Methoden wird der Nutzer bei Programmstart aufgefordert, seine Hand in einer definierten Position an eine bestimmte Stelle zu legen.

Zum Spielen ist die neue Methode übrigens nicht primär gedacht. „Wir entwickeln in einem EU-Projekt möglichst natürliche Interaktionsmöglichkeiten zwischen Mensch und Maschine“, sagt Professor Dr. Reinhard Klein, Leiter der Arbeitsgruppe Computergrafik.

Interesse an intuitiven und flexiblen Eingabegeräten komme etwa aus der Medizin. Beispielsweise fallen in der Computertomografie immense Datenmengen an, aus denen Grafikprogramme detaillierte dreidimensionale Bilder erzeugen. Mit der Software ist es zum Beispiel auch möglich, sich durch das Gehirn zu einem Tumor zu navigieren. Man kann ihn aus allen Blickwinkeln betrachten oder umliegendes, die Sicht verstellendes Gewebe ausblenden. (Detlef Scholz)