Kombination aus Hard- und Software

Computer-Analyse sagt menschliches Verhalten voraus

Europäische Forscher arbeiten mit HERMES (Human Expressive Graphic Representation of Motion and their Evaluation in Sequences) an einem kognitiven System, das Videokameras und Software nutzt, um menschliches Verhalten zu analysieren und vorherzusagen.

Durch das Erkennen ungewöhnlicher Verhaltensmuster wäre es beispielsweise möglich, die Stationsaufsicht zu warnen, wenn in der U-Bahn eine Person den Gleiskörper betritt. Das Projekt “HERMES“ setzt zunächst auf statische Kameras für Aufnahmen eines großen Umgebungsbereichs. "Damit finden wir bei geringer Auflösung anomales Verhalten wie lauernde Bewegungsmuster ohne klare Richtung", erklärt Xavier Roca, Direktor des Fachbereichs Informatik an der Autonomen Universität Barcelona (UAB), im pressetext-Interview. Mit zusätzlichen Schwenk-Neige-Zoom-Kameras kann eine genauere Analyse auf drei Detailebenen erfolgen. Außerdem verfolgt HERMES das Ziel, das beobachtete Verhalten sprachlich zu beschreiben.

Überwachungslösungen mit Bildanalyse wurden zwar schon vielerorts erprobt und werden etwa von KiwiSecurity bereits kommerziell angeboten. "Der große Unterschied ist, dass solche Projekte zum Entdecken ungewöhnlichen Verhaltens bestimmte Marker nutzen und z.B. darauf achten, ob sich jemand in eine verbotene Richtung bewegt", sagt Roca. HERMES dagegen soll durch viele Beobachtungen im Laufe der Zeit lernen, immer genauer einzuschätzen, was normale und was auffällige Bewegungsmuster sind.

"Bei Auffälligkeiten versuchen die Algorithmen für ein besseres Bild heranzuzoomen", so der Informatiker. Dazu kommen die Schwenk-Neige-Zoom-Kameras zum Einsatz. Ziel ist es, einzelne Körperteile zu analysieren, um beispielsweise Schlagbewegungen zu erkennen. Als höchste Detailstufe soll das System auch den Gesichtsausdruck von Personen studieren und beurteilen, ob beispielsweise jemand beunruhigt wirkt. "Alle drei Ebenen liefern Warnsignale für mögliche Gefahrensituationen, die ein Operator dann bestätigen müsste", meint Roca.

"Ein Ziel des Projekts ist auch, sprachliche Beschreibungen des beobachteten Verhaltens zu liefern", betont der Wissenschaftler. Dabei sollen Handlungen mit kurzen, präzisen Phrasen sprachlich abstrahiert werden. Die Textbausteine können dann in Echtzeit gemeinsam mit Informationen, zu welchem Video-Frame sie gehören, auf einem Bildschirm ausgegeben werden.

Außerdem streben die Forscher an, dass virtuelle Avatare die Situationsbeschreibungen auch ansagen und das möglichst mit einem jeweils passenden Gesichtsausdruck. "Ein weiteres Ziel sind Erklärungen in Bildsprache. Das bedeutet in unserem Fall eine virtuelle Umgebung zur Darstellung synthetisierter Verhaltensabläufe, welche die konzeptionellen Beschreibungen wiedergeben", so Roca abschließend. (pte/hal)