Den Computer per Fingerzeig steuern

Zwei Fraunhofer-Institute zeigen, wie sich Computer per Zeigefinger oder Gesten bedienen lassen.

Mit Hilfe von Kameras beobachtet der Rechner den Menschen, der vor der Projektionswand steht. Sobald der Akteur die Hände bewegt, reagiert der Rechner – völlig berührungsfrei. „Dazu ermittelt er zunächst einmal die Position der Zeigefinger des Nutzers, deren Bewegung er verfolgt“, sagt Projektleiter Paul Chojecki, Wissenschaftler am Heinrich-Hertz-Institut HHI.

Berührungslose Interaktion zwischen Mensch und Computer: Der iPoint Presenter verfolgt die Fingerposition des Nutzers und reagiert auf die Veränderungen. Foto: Fraunhofer HHI
Berührungslose Interaktion zwischen Mensch und Computer: Der iPoint Presenter verfolgt die Fingerposition des Nutzers und reagiert auf die Veränderungen. Foto: Fraunhofer HHI
Foto: xyz xyz

Der Nutzer kann auf Knöpfe deuten oder virtuelle Objekte mittels Gesten verschieben. Die Objekte lassen sich durch eine „Multipointing Interaktion“ (Eingaben mit mehreren Fingern) drehen, vergrößern oder verkleinern. Dazu sind weder spezielle Handschuhe noch eine besondere Markierung nötig. Jeder kann ohne Vorbereitung mit der bloßen Hand das Gerät intuitiv bedienen, verspricht das HHI.

Das System eignet sich etwa als Ersatz für Touchscreens an Infoterminals oder zum Bearbeiten und Ordnen von Bildern. „Das Besondere ist, dass die Kommunikation absolut berührungsfrei erfolgt. Deshalb ist das System ideal für Szenarien, in denen kein Kontakt zwischen dem Nutzer und dem Computer bestehen darf oder kann, wie etwa im Operationssaal“, so Chojecki weiter.

Auch für Präsentationen vor großen Auditorien wäre das System ideal: Der Redner könnte weiter klicken und wesentliche Infos hervorheben, indem er einfach auf sie zeigt. Das System lässt sich auf bis zu neun Kameras erweitern. Damit kann es z.B. auf Messen und Werbeveranstaltungen auf einer großen Leinwand zum Einsatz kommen.

Forscher vom Fraunhofer IDMT bringen indessen Computern das Verstehen von Gesten bei. „Wir arbeiten auf der Basis der optischen Mustererkennung“, sagt Projektleiter Valiantsin Hardzeyeu. „Das Verfahren ist der Art und Weise nachempfunden, wie der Mensch sieht. Wir haben dazu die Vorgänge im menschlichen Sehapparat, vom Einfallen der Photonen auf die Netzhaut bis zur Bearbeitung im visuellen Cortex, in einer Computersimulation modelliert.“

Berührungslose Interaktion zwischen Mensch und Computer: GestureID soll Gesten erkennen und in Steuerbefehle umsetzen. Foto: Fraunhofer IDMT
Berührungslose Interaktion zwischen Mensch und Computer: GestureID soll Gesten erkennen und in Steuerbefehle umsetzen. Foto: Fraunhofer IDMT
Foto: xyz xyz

Die Systeme von HHI und IDMT werden auf der kommenden CeBIT zu sehen sein. (dsc)

Halle 9, Stand B36

tecCHANNEL Shop und Preisvergleich

Links zum Thema Applikationen

Angebot

Bookshop

Bücher zum Thema

eBooks (50 % Preisvorteil)

eBooks zum Thema

Software-Shop

Gesamtübersicht