Crisp Research Analyse

Die 10 IT Trends für 2016

APIs und Data Streams

In der von IoT-Lösungen und mobilen Endgeräten vernetzten Welt, steigt das Datenvolumen in den kommenden Jahren exponentiell an. Zudem lassen tausende Cloud-Dienste wie IaaS, SaaS oder PaaS über Schnittstellen den Datenstrom anwachsen und stellen Kunden und Partnern über ihre Schnittstellen Daten, Content und Funktionen bereit.

Derzeit stehen Entwicklern über 15.000 APIs über das Internet bereit. Diese reichen von der Anbindung an die großen Cloud-Plattformen Google, Facebook. Salesforce und Twitter, über Live-Verkehrsdaten bis hin zu Video-Satellitendaten aus dem Weltraum. APIs bilden einerseits die Basis für neue Geschäftsmodelle und Services, sogenannte „API-based Products“, deren Mehrwert in der intelligenten und nutzerfreundlichen Verzahnung unterschiedlicher Dienste besteht. zum Beispiel Slack. Sie können andererseits auch genutzt werden, um unternehmensintern Prozessinnovationen zu treiben, indem externe Cloud-Dienste mit den eigenen Prozessen in Form von so genannten API-based-Operatios verwoben werden.
Die Bereitstellung und das Management von APIs werden in der digitalen Wirtschaft zu einem strategischen Erfolgsfaktor, ohne den sich Ökosysteme und Plattformen rund um die eigenen Produkte nicht aufbauen und nachhaltig entwickeln lassen. Denn in der digitalisierten und auf Echtzeitdaten fokussierten Welt, müssen Daten fließen, um einen Mehrwert zu generieren und kommerzialisierbar. API-Governance und Data Asset Management werden somit zu Kerndisziplinen für das Top-Management.

Machine Intelligence

Für eine Vielzahl an Use Cases der digitalisierten Welt sind neue Processing- und Analysetechnologien gefragt. So spielt die Mustererkennung von Bildern, Personen oder Gegenständen zum Beispiel in der Gesundheitsvorsorge, der öffentlichen Sicherheit und auch dem Automobilsektor - Stichwort autonomes Fahren - eine immer größere Rolle.

Auch die maschinelle Verarbeitung von Sprache in digitalen Assistenten wird in mobilen Einsatzszenarien immer wichtiger. Machine Learning-Verfahren und selbstlernende Systeme werden somit eine unerlässliche Grundlage, um große, komplexe Datenmengen in Echtzeit verarbeiten zu können. Dies gilt auch für die Kontextualisierung von Apps sowie für die Personalisierung von Cloud-Diensten und der Online Shopping-Experience. Ebenso für die autonome Steuerung von Maschinen und die Analyse von IoT-Daten im Kontext von Predictive Maintenance.
Das Zusammentreffen von ausgereiften Machine Learning-Verfahren und nahezu unlimitierter, kostengünstiger Rechenleistung in der Cloud, ermöglicht Unternehmen einen „barrierefreien“ Einstieg in das Thema. So bieten mittlerweile fast alle globalen Cloud Provider „Machine Learning-as-a-Service“ an.

Infrastructure as Code

Der Administrator 1.0 klickt – der Administrator 2.0 programmiert- So lässt sich der fundamentale Wandel im Rechenzentrum beschreiben, der angetrieben durch Cloud Computing und die Automatisierung der Bestell-, Konfigurations-, Deployment- und Administrationsprozesse in vollem Gange ist.

„Infrastructure as Code“ ist für IT-Infrastrukturentscheider der kommende Evolutionsschritt auf dem Weg zu einer dynamischen, und autonomen Infrastrukturbasis. Er ist die logische Folge von „Infrastructure-as-a-Service“, sprich Cloud-Infrastrukturdiensten, die via API auf Cloud-Plattformen zur Verfügung gestellt und über Befehle auf der Kommandozeile konfiguriert werden. Scripten statt Schrauben heißt es für Administratoren zukünftig. Denn die IT-Infrastruktur der Zukunft, die „Digital Infrastructure Platform“, stellt nicht mehr Hardware sondern Infrastruktur als Dienstleistung zur Verfügung. Unternehmen, die sich diesem Trend nicht mit eigenen Personalressourcen stellen wollen oder können, werden in den nächsten Jahren für eine enorme Nachfrage nach sogenannten „Managed Public Cloud Services“ sorgen.