Android-Ökosystem im Unternehmenseinsatz

Android M - Wichtige Neuigkeiten für Unternehmen

Der Google-Now-Assistent ist nun überall

War "Google Now" früher etwas umständlich zu erreichen, ist dies nun sehr zentral zugänglich und mit "Google Now on Tab" stark erweitert worden. Hält der Anwender den (virtuellen) Home-Button 3 Sekunden lang gedrückt, analysiert (Fotos & Text Analysen) Android den Bildschirminhalt, verschlagwortet diesen mithilfe seines Knowledge-Tree-Wissens und bietet dem Anwender kontextbasierte Informationen an, die er jetzt zu diesem Screen in dieser App braucht. Dabei beschränkt sich Google Now tatsächlich nur auf den gerade sichtbaren Bildschirminhalt.

Zeigt ein Eintrag in Facebook ein dem Anwender unbekanntes Auto, kann dieser über "Google Now on Tab" erfahren, dass es sich um einen Tesla Model S handelt. Schaut sich der Anwender einen Filmtrailer an, kann er sehen, in welchem Kino er läuft. Fragt er im Anschluß Google Now nach dem Autor des Buches, bekommt er diesen genannt, da der Zusammenhang zur letzten "Google Now on Tab" Analyse als Information für den Knowledge Tree herangezogen wurde. Dabei spielt es keine Rolle, ob eine Webseite oder eine App geöffnet ist.

Bisher konnte Google nicht sehen, was die Nutzer in ihren Apps machen, nicht nur aus Datenschutzgründen dürfte dies nicht nur in Unternehmen große Sorgen verursachen. Dabei sind nicht nur unternehmeneigene Geräte in diesem Sachverhalt zu betrachten. Auch eingesetzte BYOD-Geräte ohne die Android-for-Work Funktionalität, also mit PIM-Containern wie zum Beispiel Good for Enterprise sind mit dieser neuen Funktion einem potenziellen Risiko des Datenabflusses ausgesetzt. Es bleibt abzuwarten, inwieweit Anwendungsentwickler diese Funktion unterbinden können, beziehungsweise wie sich diese neue Funktionalität im Alltag tatsächlich verhalten wird.

Google Now on Tab analysiert die App-Kategorie und ist mit seinen Knowledge Trees in der Lage, passende Informationen für die aktuelle Nutzung bereit zu halten. So können z.B. Informationen zur Musik, die der Nutzer gerade in eine Musikplayer seiner Wahl hört, dem Anwender angeboten werden. Der Anwender muss nun nicht mehr seine App verlassen, um seine Fragen, die sich bei der Nutzung ergeben, zu beantworten. Welche Songs ein Künstler noch veröffentlicht hat, beziehungsweise seine Biographie sind so "schnell" zugänglich. Das Potential für zukünftige Versionen und durchgängige Integrationen ist enorm. Google scannt dabei nicht alles automatisch im Hintergrund mit. Nur wenn der Anwender aktiv den Home-Button länger gedrückt hält, wird die Funktion aktiviert und der Bildschirminhalt gescannt.

Im Gegensatz zu Proactive von iOS verlassen hier die Daten das Endgerät in Richtung Google Cloud. Allerdings sind die Auswertungen von Google durchaus ausführlicher.

Diese Entwicklung ist für Google absolut nachvollziehbar. Zum einen wird der Zugriff auf den Knowledge-Tree benötigt und zum anderen besteht natürlich der Bedarf, das App-/Surfnutzungsverhalten zu analysieren und in Profile zur zielgerichteten Werbeschaltung zu überführen. Gerade die App Nutzung war in der Vergangenheit ein blinder Fleck. Dass der Konzern, meinem persönlichen Empfinden nach, natürlich auch in diesem Umfeld viel mehr über das Verhalten seiner Anwender erfahren will (und muss), um Werbung besser zuschneiden zu können, ist meiner Meinung nach einer der wichtigsten geschäftliche Aspekt dieser Neuerung.