Grundlagenserie Business Intelligence

Business Intelligence (Teil 9): Drei Fallbeispiele aus der Praxis

24.04.2008 von Klaus Manhart
Wie wird Business Intelligence in der Praxis umgesetzt? Drei ganz unterschiedliche Fallbeispiele zum Data Warehouse, zum Berichtswesen und zum Data Mining zeigen BI-Anwendungen im realen Unternehmenseinsatz.

Wie unsere BI-Grundlagenserie bislang gezeigt hat, besitzt Business Intelligenz ganz unterschiedliche Facetten. Im Folgenden gehen wir auf drei BI-Szenarien im praktischen Einsatz ein, die ganz verschiedene Anforderungen haben. Unser erstes Beispiel, eine Krankenkasse, hatte vor allem mit zahlreichen Datenquellen zu kämpfen. Lufthansa Cargo nutzt BI vor vorrangig für ein komplexes Berichtswesen zur Steuerung des operativen Geschäfts. Eine Direktvermarktungs-Agentur als drittes Beispiel konzentriert sich dagegen vor allem auf das Data Mining in einem großen Adressbestand.

Kaufmännische Krankenkasse Hannover

Die Kaufmännische Krankenkasse aus Hannover (KKH) ist mit rund zwei Millionen Versicherten die viertgrößte bundesweite Krankenkasse in Deutschland. Um die Wettbewerbsfähigkeit unter den aktuell schwierigen Bedingungen aufrecht und die Beiträge stabil halten zu können, müssen vor allem die internen Unternehmensprozesse transparent und so weit wie möglich automatisiert ablaufen.

Grundlage dafür ist die Datenintegrationsplattform Informatica PowerCenter, mit der die KKH ihre Daten aus den verschiedenen Quellsystemen in der unternehmenseigenen Data Warehouse (DWH)-Lösung zusammenführt. Von dort aus stellt sie diese den Analyseprogrammen zur Unternehmenssteuerung zur Verfügung.

PowerCenter unterstützt dabei nicht nur die automatische Befüllung des Data Warehouse, sondern erkennt auch Fehlersituationen und leistet Hilfestellung bei Maßnahmen zur Sicherstellung der Datenqualität. .

Bei der Einrichtung des unternehmensweiten Data Warehouse im Jahr 1999 stand das Ziel im Vordergrund, aussagekräftige Daten für eine gezielte Steuerung der Leistungskosten zu erlangen und die Entwicklung der Kosten und Leistungen unter Kontrolle zu halten.

„Wir wollten aus der Vielzahl vorhandener Daten einen einheitlichen Blick auf das Unternehmen ableiten“, erinnert sich Detlef André, Abteilungsleiter DWH & SAP bei der KKH. „Der erste Schritt auf diesem Weg war die Implementierung eines einheitlichen Speicherorts für alle Daten.“ Heute dient das Data Warehouse als Basis für die internen Business Intelligence- und CRM (Customer Relationship Management)-Projekte.

Kaufmännische Krankenkasse – Datenintegration mit PowerCenter

Bei der Einführung hatte die KKH mit einer Vielzahl unterschiedlicher Quell- und Zielsysteme zu kämpfen. Auf der einen Seite betraf dies die Betreuung der rund zwei Millionen Versicherten, deren Daten 4500 Mitarbeiter in 113 Servicezentren erfassen. Auf der anderen Seite stehen die Abrechnungen mit Ärzten, Apotheken, Krankenhäusern und anderen Leistungserbringern. Auch die zahlreichen Berichte für die Unternehmenssteuerung und für die Erfüllung behördlicher Vorgaben sollten schneller und besser nachvollziehbar erstellt werden können.

Aus technischer Sicht benötigt jeder Datenaustausch eine Schnittstelle, über die die Daten fließen können. In Systemlandschaften wie der der KKH kommt schnell eine stattliche Zahl notwendiger Schnittstellen zusammen, die entweder von Fall zu Fall manuell programmiert oder durch entsprechende Softwarelösungen zur Verfügung gestellt werden müssen.

Aufgrund des zu erwartenden Arbeitsaufwandes und der geringen Flexibilität schied die Eigenprogrammierung als Alternative aus, so dass die KKH den Markt nach einer geeigneten Datenintegrationsplattform sondierte. Seit Beginn des Data Warehouse-Projektes wird Informatica PowerCenter als das zentrale Datentransformations- Werkzeug für die Befüllung aller Datenschichten des Data Warehouses eingesetzt.

Bei der Anbindung der verschiedenen Systeme an das Data Warehouse - darunter eine DB2-Datenbank sowie das interne SAP-System - standen die Verantwortlichen vor der Herausforderung, Daten aus den unterschiedlichsten Systemen und Formaten erst zentral zu konsolidieren und dann dem Microsoft SQL-Server 2005 möglichst in Echtzeit zur Auswertung zur Verfügung zu stellen.

Als weitere Produktionsumgebung für Oracle und PowerCenter dienen drei Fujitsu-Siemens-Server vom Typ RX600S3 mit jeweils vier Intel Dual-Core-CPUs und einem Arbeitsspeicher von 16 GB. Die Maschinen laufen unter dem Betriebssystem Windows 2003 R2 Enterprise x64-Edition. Daran angeschlossen sind zwei EMC-Storageeinheiten CX700 mit 24 Terabytes.

Datenintegration bei der KKH: Mit seiner Metadaten-gesteuerten Architektur dient PowerCenter als Grundlage hierfür. (Quelle: Informatica)

Performance durch 64-Bit-Umgebung

Trotz der Archivierung von Altdaten hat die zu verarbeitende Datenmenge in den letzten drei Jahren um 120 Prozent zugenommen. Die Anzahl der ins Data Warehouse übernommenen Quellobjekte, wie etwa Tabellen, hat sich in diesem Zeitraum mehr als verdoppelt, nämlich von 435 auf 947. In der Vergangenheit konnte eine kritische Verlängerung der Verarbeitungsprozesse meist durch den Austausch oder die Aufrüstung der vorhandenen Hardware vermieden werden.

Ende 2006 wurde jedoch in immer mehr Projekten ein Speicherbedarf erreicht, für den der bei 32-Bit-Umgebungen adressierbare Arbeitsspeicher nicht mehr ausreichte. Das dann notwendige Caching auf der Festplatte führte zu einer erheblichen, teilweise vierfachen Laufzeitverlängerung.

Es ist absehbar, dass sich die zu verarbeitende Datenmenge auch in naher Zukunft weiter deutlich erhöhen wird. Ähnliches gilt für die fachliche Komplexität der Mappings. Zahlreiche anstehende Projekte sollen nach heutigem Planungsstand mit neuen DWH-Funktionalitäten unterstützt werden. Neben der „normalen“ Projektbewirtschaftung müssen dabei auch neue Systeme, beispielsweise prädiktive BI-Systeme oder Data Mining-Werkzeuge, mit Quelldaten versorgt werden. Geplant sind auch Simulationen auf Basis von komplexen Datenbeständen und der Aufbau komplexer Analysesysteme in Echtzeit.

Um diese fachlichen Anforderungen adäquat und zeitnah umsetzen zu können, war eine bedarfsgerechte Soft- und Hardwareplanung unerlässlich. Hieraus abgeleitet hat die KKH die Beschaffung von entsprechender Hardware projektiert und bereits Testszenarien mit der 64-Bit-Version von PowerCenter durchgeführt.

„Dabei hat sich gezeigt, dass ein Performancegewinn von bis zu 300 Prozent möglich war“, so Detlef André. Der 64-Bit-Hardware-Konsolidierung schließt sich somit folgerichtig eine 64-Bit Software-Konsolidierung an, entsprechende Lizenzen für Oracle und SQL Server 2005 sind bereits vorhanden. Die neuen Server sowie das SAN sind bereits angeschafft, PowerCenter 8.1.1 in der 64-Bit-Ausführung wurde bereits in einer Testumgebung installiert. Im März 2007 wurde die bestehende PowerCenter-Produktionsumgebung auf die Version 8 migriert. Der Produktionsbetrieb der 64-Bit-Version startete dann im Sommer.

Basis für fundierte Entscheidungen

Die KKH hat auf Basis von PowerCenter ein konsistentes Kennzahlensystem und Berichtswesen geschaffen, mit dem das unternehmensweite Controlling unterstützt und ein effizientes Kostenmanagement eingeführt wurde. Zahlen aus unterschiedlichen Unternehmensbereichen können heute zur Optimierung von Geschäftsprozessen genutzt werden.

„Wir konnten zum Beispiel Daten korrelieren, um das Zahlungsverhalten unserer Kunden mit den Vertriebsdaten abzugleichen, und unsere Fachbereiche durch komplexe Datenanalysen wesentlich besser als vorher unterstützen“, kommentiert Detlef André. So können umfangreiche Statistiken, etwa über die Versichertenstruktur, ohne großen Aufwand erstellt werden, was wiederum aussagekräftige Analysen über die wirtschaftliche Situation der KKH zu jedem beliebigen Zeitpunkt ermöglicht.

Immer stärker erfordern aber auch gesetzliche Vorgaben die regelmäßige, schnelle und verlässliche Erstellung von Berichten. So werden die von PowerCenter in das Data Warehouse überführten Daten auch benötigt, um den Anforderungen des Risikostrukturausgleichs (RSA) zu genügen.

Für Detlef André ist vor allem das Management Nutznießer der DWH-Infrastruktur: „Für die Unternehmenssteuerung ist es ein unschätzbarer Vorteil, zu jedem Zeitpunkt verlässliche Informationen zur haben.“

Beispiel 2: Lufthansa Cargo – Cognos 8 BI

Die 1994 gegründete Lufthansa Cargo AG ist eine der größten Frachtfluggesellschaften im internationalen Luftverkehr: 1,76 Millionen Tonnen Fracht und Post beförderte das Unternehmen in 2006 – das entspricht 8,1 Milliarden verkauften Frachttonnenkilometern. Damit erwirtschaftete der Fracht-Carrier, dessen Kernkompetenz das Airport-to-Airport-Luftfrachtgeschäft ist, einen Umsatz von 2,84 Milliarden Euro.

Bereits seit 2001 setzt Lufthansa Cargo die Cognos BI-Lösung ein und analysiert damit das gesamte operative Geschäft: Von Buchungs- und Verkaufszahlen über Informationen zum tatsächlichen Transport der Güter bis hin zur finalen Abrechnung wird die komplette Wertschöpfungskette im Unternehmen betrachtet und anhand von Berichten ausgewertet.

So nutzt Lufthansa Cargo die BI-Lösungen von Cognos beispielsweise, um Qualitätskennzahlen gegenüber Kunden und Partnern, aber auch im eigenen Haus transparent zu machen und stetig Verbesserungen zu erzielen. Ausgangspunkt ist das Monitoring der Qualitätskennzahlen, das Lufthansa Cargo vor zwei Jahren unternehmensweit eingeführt hat. Dabei werden alle Informationen gesammelt, die von den verschiedenen Punkten der Transportkette an das Data Warehouse geschickt werden.

Aus diesen Daten wird dann ermittelt, ob die tatsächlich erfolgte Beförderung der Fracht dem zuvor erstellten Transportplan für dieses Frachtstück entspricht. Die für bestimmte Zeiträume gesammelten Informationen fließen dann in mit Cognos PowerPlay und Cognos Impromptu Web Reports erstellte Berichte ein und dokumentieren die Einhaltung bestimmter Compliance-Anforderungen. Ziel ist es, die Qualität - also Transportzeiten, Pünktlichkeit sowie Bereitstellung der Fracht am Ankunftsort - eindeutig zu messen und so die Transportprozesse zuverlässiger zu machen.

Streckenabhängige Umsatzanalyse

Bei dem Monitoring der Budgetplanung greift Lufthansa Cargo ebenfalls auf die BI-Plattform von Cognos zurück. Geplante Budgets werden den IST-Zahlen - das sind Umsatz, Tonnage und der darauf berechnete Yield - gegenübergestellt und in ständig aktuellen Planungsvergleichen abgebildet. Gibt es Abweichungen zwischen Planung und operativem Geschäft, kann Lufthansa Cargo auf Basis der dargestellten Informationen analysieren, auf welchen Strecken zu wenig Umsatz generiert wurde oder warum beispielsweise die Kühlkapazitäten nicht ausgelastet sind.

Auf Basis dieser Auswertungen lassen sich dann entsprechende Gegenmaßnahmen treffen und so die sendungsbezogenen Geschäftsprozesse in Vertrieb, Marketing und Controlling unterstützen. Darüber hinaus nutzt Lufthansa Cargo diese Zahlen, um daraus die jährlichen Verkäufer-Incentives abzuleiten. Die Zielwerte der Verkäuferteams werden dafür mit den täglich aktualisierten Verkaufswerten abgeglichen und daraus die Provision ermittelt.

Die Bereitstellung von Reports und Analysemöglichkeiten erfolgte bisher über Cognos PowerPlay und Cognos Impromptu Web Reports (IWR). Diese Lösungen sind zwar sehr umfangreich und flexibel, erfordern aber noch zu viel händische Weiterverarbeitung der Analyse- und Reportergebnisse.

Die logische Konsequenz: Die Migration der bestehenden PowerPlay Berichte und IWR-Reports nach Cognos 8 BI. „Uns war bei der der Implementierung von Cognos 8 BI besonders wichtig, dass unsere Berichte nicht verschwinden und wir von den Funktionalitäten der neuen Cognos Version profitieren können“, fasst Adriena Greening-Scheuring, Projektleiterin und Business Analyst IT bei Lufthansa Cargo die Wünsche des Frachtdienstleisters zusammen.

Auf dem Weg zu Cognos 8

In sechs Monaten sollte das gesamte Berichtswesen von Cognos Series 7 IWR auf Cognos 8 BI migriert werden. Trotz geringen personellen Aufwands – das Projektteam bestand aus sieben Mitarbeitern – gelang es dem Unternehmen, mit dem im April 2007 gestarteten Projekt zum 10. September 2007 live zu gehen. Seit dem 1. Oktober ist die neue Lösung im Einsatz. Zuvor konnten die Lufthansa Cargo-Anwender die Cognos 8 BI-Plattform in einer dreiwöchigen Parallelphase dem Praxistest unterziehen.

Im Laufe des Projektes stellte das Implementierungs-Team, bestehend aus Beratern der Lufthansa Systems und Cognos-Consultants, die bisherige Lösung Cognos Series 7 IWR komplett auf Cognos 8 Viewer um. Cognos PowerPlay blieb bestehen und wurde in Cognos 8 eingebunden. „Wir haben die PowerPlay-Cubes beibehalten, weil unsere Nutzer diese sehr komfortabel finden“, erklärt Adriena Greening-Scheuring. „Die Datenwürfel sind sehr schnell und performant und lassen Analysen in vielen Dimensionen zu.“

Allzweck-Tool: Cognos 8 BI deckt eine breite Palette von BI-Anforderungen auf SOA-Basis ab. (Quelle: Cognos)

Die besondere Herausforderung des Migrationsprojekts: Neben den zentral abgelegten 6.000 PowerPlay- und 60 IWR-Berichten mussten auch die von den Nutzern individuell abgespeicherten Reports übertragen werden – und zwar so, dass die Mitarbeiter sie nach der Migration wieder in ihren persönlichen Newsboxen vorfinden würden. Dafür wurden spezielle Ordner angelegt, in dem die Eigentümer die Berichte unter ihrer Nutzer-ID speichern konnten. Von diesem Ordner aus wurden die Berichte überführt und konnten dann von den Nutzern in den eigenen Bereichen abgespeichert werden.

Neue Portaloberfläche

Die bisherige Portalapplikation Cognos Upfront wurde durch die neue Portaloberfläche Cognos Connection abgelöst. Cognos Connection bietet den Nutzern einen zentralen Zugang zu den Berichten und die Möglichkeit, Benutzersichten zu verwalten oder Reports per E-Mail zu versenden.

Im Zuge der Migration der Cognos-Plattform wurde bei Lufthansa Cargo auch das Upgrade des Powerplay Servers auf die aktuelle Version 7.4, eine Umstellung des Unix-Betriebssystems auf Windows, eine Umstellung der Batchsteuerung sowie ein Upgrade der Oracle-Datenbank von Version 9 auf Oracle 10 durchgeführt.

Das Cognos Client Management leistete Lufthansa Cargo nicht nur Unterstützung bei der Umsetzung des Migrationsprojektes, sondern war bereits in die Planung des Projektes und beim Design der Applikation eingebunden. Eine entscheidende Rolle spielte das Team dann bei der Lösung von Sonderaufgaben wie der Installation von Single Sign-On, der Sperrung des Reportings während der Datenbankbewirtschaftung und der Anzeige von Berichtsnamen in PowerPlay-Reports.

Dafür wurden mit Hilfe des Cognos 8 Software Development Kits (SDK) entsprechende Anpassungen an der Software vorgenommen „Die Migration verlief schnell und weitestgehend reibungslos“, sagt Adriena Greening-Scheuring. „Zwar sind trotz unserer detaillierten Analyse im Vorfeld während des Projekts unvorhergesehene Schwierigkeiten aufgetreten. Die Cognos-Consultants vor Ort fanden dafür aber schnelle und pragmatische Lösungen.“

Nach der Implementierung von Cognos 8 BI steht bei Lufthansa Cargo nun die Bereinigung und Neustrukturierung der Daten an. „Wir werden mit dem Cognos Framework Manager ein neues Data Warehouse Design aufsetzen, um die Funktionalitäten der Cognos-Produkte besser zu nutzen“, sagt Adriena Greening-Scheuring. „Damit erhoffen wir uns eine höhere Transparenz der zugrunde liegenden Daten und weniger Wartungs- und Weiterentwicklungsaufwand.“

Beispiel 3: AZ Direct – Data Mining mit SPSS

Im Direktmarketing gilt ein gut gepflegter und selektierter Adressbestand als das A und O. Die AZ Direct GmbH in Gütersloh, ein Unternehmen der arvato Bertelsmann AG, bietet hier als Full Service-Anbieter eine breite Unterstützung: Einen wichtigen Schwerpunkt bildet dabei die Bereitstellung, Aufbereitung und Analyse von Anschriften.

Zu den AZ-Kunden gehören Unternehmen nahezu aller Branchen, die über größere Kundendatenbanken verfügen - sei es der klassische Versandhandel, Medienunternehmen, Finanzdienstleister oder Spendenorganisationen. Alles Unternehmen, die unterstützt durch AZ Direct die Effektivität ihrer Marketing- und Vertriebsmaßnahmen so optimal wie möglich gestalten wollen.

Eine zentrale Rolle spielt die Analyse und Bewertung der bereits vorhandenen Adressdaten – bei AZ Direct ist dafür der Bereich „Daten & Services“ zuständig. Im Rahmen der AZ Data MiningServices zur optimierten Neukundengewinnung etwa geht es um Kundenstruktur- und Response-Analysen. Dabei können die Kundenprofile detailliert beschrieben und die erfolgversprechendsten Adressen, z. B. aus der AZ Haushaltsdatenbank oder den Listbroking-Beständen, gezielt selektiert werden. Bei der Vertriebsoptimierung verlässt man sich auf Kundenwert-Analysen, versucht Cross-Selling-Potenziale aufzudecken, fertigt Abwanderungsanalysen an, wirft einen genauen Blick auf den Warenkorb der Einkäufer und versucht, Kunden-Clusterungen vorzunehmen.

Die Spezialisten aus dem Team „Content / Produktion“dagegen kümmern sich vornehmlich um die Datenentwicklung. Dabei geht es darum, neue Merkmale – wie die mit TNS Infratest gemeinsam entwickelten psychografischen SemioScore-Merkmale – aus einer Datenbank zu generieren, etwa indem neue Zusammenhänge unter den Merkmalen aufgedeckt werden.

Datenanalyse mit SPSS

Ebenso wichtig ist die Datenbereitstellung, bei der Dateien auf unterschiedlichen Schlüsselebenen verknüpft werden, um eine Selektionstabelle oder einen Analysebestand zu generieren. Außerdem hat auch die Datenplausibilisierung eine hohe Bedeutung. Sie dient dem Ziel, nur postalisch validierte Adressen und nach Statistik, Marketing-Logik und -Erfahrung qualifizierte Daten für die weitere Verarbeitung in Analysen oder Kampagnen bereitzustellen.

Bislang arbeitete AZ Direct mit Data Mining-Tools unterschiedlicher Anbieter auf PC-Ebene. Mit wachsenden Datenbanken und einem größer werdenden Analyseteam sowie komplexeren Anwendungsstrukturen waren jedoch Veränderungen nötig. Gesucht war eine einheitliche und schnellere Lösung, die auch in einem Client-Server-Verbund funktioniert.

Die Data Minining-Experten entschieden sich nach ausführlichen Tests für SPSS. AZ Direct setzt heute SPSS Base, SPSS Tables, Clementine und AnswerTree ein. Ausschlaggebend war neben der Erfüllung der Basis-Anforderungen auch die einfache Bedienbarkeit und das Preis-/Leistungsverhältnis. „Für uns war es ebenso wichtig, dass die SPSS-Produkte sehr flexibel mit den Daten unser bestehenden Systeme (Oracle) umgehen können. Das hat uns wertvolle Zeit für die Konvertierung gespart,“ erläutert Wolfgang Hüffer, für Content und Analysen zuständiger Leiter des Daten & Services-Bereichs, die Wahl der Software.

SPSS Answertree: Das Tool ermöglicht es, Segmente zu bilden, Profile zu erstellen und Profitpotenziale zu erkennen. (Quelle: SPSS)

Bisher erwarb AZ Direct zwei Server und 13 Client-Lizenzen. Drei Tage Schulung durch SPSS Consultants reichten zudem aus, um alle betroffenen Mitarbeiter mit den Produkten vertraut zu machen. „Die Umstellung von der alten auf die neue Software funktionierte weitestgehend problemlos“, so Wolfgang Hüffer.

Kundenspezifika verfeinern

Die neue Lösung bringt bei den typischen Einsatz-Szenarien von AZ Direct, wie etwa der Kundenstrukturanalyse und der Generierung von Marktdaten, jede Menge Vorteile gegenüber dem bisherigen PC-Ansatz. So ermöglicht die Client-Server-Architektur auch den Zugriff auf große Datenbanken, um relevante Schlüsselmerkmale zur Erkennung von Strukturen leichter herauszufinden. Zudem lassen sich Modelle einfacher generieren und Scorewerte in die Datenbank zur Selektion zurückspielen.

Das Data Mining-Team nahm mit Hilfe von SPSS verschiedene Kundenbestände und die Adress- und Transaktionsdaten aus AZ DIAS, dem Daten-, Informations- und Analysesystem von AZ Direct, unter die Lupe. Die AZ Datenbank enthält über 60 Millionen Adresseinträge mit mehr als 200 Merkmalen. Dabei hilft das Tool Clementine, die zumeist ordinalen und numerischen Daten zu klassifizieren.

Es sind bereits erste Erfolge sichtbar. „Wir konnten mit Hilfe der Software die Kundenspezifika verfeinern und für eine Reihe von Kunden noch besser eine typische Zielgruppe identifizieren“, sagt Wolfgang Hüffer. „Die schnellere Datenselektion ist bei der täglichen Arbeit schon jetzt stark zu spüren. Aber wir rechnen sogar noch mit weiteren Geschwindigkeitssteigerungen und einer besseren Standardisierung, wenn erst einmal der Lernprozess abgeschlossen ist“, so Hüffer.

Fazit

Die drei Fallbeispiele demonstrieren drei ganz unterschiedliche Aspekte von BI: Die KKH Hannover muss Daten aus verschiedensten Datensystemen zusammenführen und in einem Data Warehouse bereitstellen. Grundlage dafür ist die BI-Plattform Informatica PowerCenter. Auf Basis dieses Werkzeugs wurde ein Kennzahlensystem und Berichtswesen geschaffen, mit dem das unternehmensweite Controlling unterstützt und ein effizientes Kostenmanagement eingeführt wurde.

Lufthansa Cargo nutzt Cognos-Lösungen in einer Windows- und Oracle-Umgebung und analysiert damit das gesamte operative Geschäft. 720 Nutzer quer durch das ganze Unternehmen arbeiten mit den Cognos-Komponenten. Ein wichtiger Meilenstein war die Migration des gesamten Berichtswesens auf Cognos 8 BI.

Die Direktvermarktungs-Agentur AZ Direct schließlich setzt auf die Daten-Werkzeuge von SPSS und analysiert und bewertet damit ihren Adressdatenbestand. Tools wie Clementine oder Answertree helfen, Strukturen in den riesigen Adressbeständen zu erkennen und beispielsweise automatisch bestimmte Segmentierungen vorzunehmen. (ala)