Informatiker lehrt Roboter räumliches Sehen

Mit einem neuen Verfahren will das Institut für Robotik und Prozessinformation der TU Braunschweig Robotern "räumliches Sehen" beibringen. Die räumliche Objekt-Orientierung gelingt durch Auswertung von Lichtmustern.

Für die Zukunft der Robotik sei die Entwicklung ein wichtiger Schritt, teilte das Institut der Technischen Universität Braunschweig mit. Insbesondere dort, wo Roboter Gegenstände erfassen, vermessen, mit Werkzeugen bewegen oder bearbeiten, könne das vom Informatiker Simon Winkelbach entwickelte Verfahren helfen.

Aussagekräftiges Streifenmuster: Mittels Projektion (links) durch eine Streifenmaske entstehen auf dreidimensionalen Gegenständen Muster, die der Roboter über einen Sensor unterscheiden kann. (Quelle RTU Braunschweig)

Das Institut für Robotik und Prozessinformatik nennt das System wegen des angewendeten Verfahrens schlicht "einleuchtend". Auf dreidimensionale Gegenstände werde ein bestimmtes Lichtmuster projiziert. Treffe dieses durch ein Streifenraster auf eine beliebig geformte Oberfläche, so lasse sich deren Form aus dem Wellenmuster berechnen, das sich auf dieser Oberfläche abzeichne. Aus den Daten könne der Rechner exakte Rückschlüsse auf die Orientierungen der Oberflächenpunkte ziehen.

Anders als der Mensch, der zwei Augen für das räumliche Sehen braucht, reicht dem Computer bei diesem Verfahren ein "Auge" in Form eines optischen Sensors. Allerdings ist zusätzlich ein Lichtprojektor erforderlich.

Vielfältige Anwendungsmöglichkeiten seien im Bereich der Robotik denkbar. Aber auch die 3-D-Modellierung in der Computergrafik könnte profitieren, glauben die Forscher.

Für seine Forschungen hat Simon Winkelbach in diesem Jahr bereits zwei renommierte Preise erhalten: den ersten Preis der Siegfried Werth Stiftung zur Förderung der Messtechnik für seine Diplomarbeit über die "Gradienten-basierte Rekonstruktion von 3-D-Oberflächen" sowie den Hauptpreis der Deutschen Arbeitsgemeinschaft für Mustererkennung (DAGM e.V.). (uba)