Oracle-Geschäftsführer Jürgen Kunz

"x86-Server sind ausgelutscht"

30.07.2013
Oracles Deutschland-Chef Jürgen Kunz erklärt im Gespräch mit TecChannel und COMPUTERWOCHE, wie große und mittelständische Kunden von integrierten Server-Systemen, Big Data und Cloud-Services profitieren können.

Welchen Stellenwert hat für Oracle das Geschäft mit den x86-Standard-Servern?

Kunz: Lassen Sie mich hier ein bisschen weiter ausholen. Viele unserer Kunden haben in den vergangenen Jahren einen Best-of-Breed-Ansatz verfolgt - sowohl auf der Applikations- wie auf der Infrastrukturebene. An dieser Stelle hat sich jedoch eine hohe Komplexität entwickelt. Die ließ sich zwar teilweise mit Hilfe von Virtualisierung auflösen. Aber das geht nur bis zu einem gewissen Grad. In gewisser Weise sind diese Plattformen, flapsig gesagt, ausgelutscht und skalieren nicht mehr.

Was sind nun die Herausforderungen, diese Komplexität zu reduzieren? Das sind zum Beispiel die wachsenden Datenmengen im Zuge von Big Data. Hier wächst der Druck, sich von diesem horizontalen in einen vertikalen Stack zu begeben. Wenn man das auf eine technische Ebene herunterbricht, sind das integrierte Engineered Systems. Das ist die Zukunft.

Sicher gibt es auch Potenzial für Up- und Cross-Selling in den horizontalen Landschaften. Die werden schließlich nicht von einem Tag auf den anderen verschwinden. Aber die Zukunft ist sicher in integrierten vertikalisierten Systemen zu sehen. Das sind andere Plattformen - das ist nicht x86.

Mit diesen integrierten Systemen begeben sich die Anwender aber auch in eine gewisse Abhängigkeit von einem Hersteller.

Kunz: Ich habe diesen Einwand ausgiebig mit CIOs diskutiert. Deren Fazit lautet: Am Ende des Tages bin ich von allem möglichen abhängig. Im Grunde sind ganz andere Ziele ausschlaggebend, wie zum Beispiel die Komplexität in den Griff zu bekommen und mehr Freiraum für Innovationen zu haben - dann gehen die Verantwortlichen gerne diese Abhängigkeit ein. Eigentlich ist diese Abhängigkeit auch gar nicht gegeben. Wenn Sie sich in einer offenen Architektur bewegen, wie das bei Oracle der Fall ist, gibt es jederzeit die Möglichkeit, Konstellationen zu ändern.

85 Prozent der IT-Budgets fließen in den Betrieb

Was sind aus Ihrer Sicht die drängendsten Herausforderungen für die Anwenderunternehmen?

Kunz: An der Reduktion der Komplexität zu arbeiten, und auf der anderen Seite genug Freiraum zu schaffen, um innovative Geschäftsmodelle und Veränderungen in den Geschäftsprozessen zu begleiten. Es ist nach wie vor erschreckend, wie die IT-Budgets investiert werden: Die Zahlen einer Gartner-Studie sind seit sieben oder acht Jahren im Grunde unverändert. Über 85 Prozent der Budgets fließen in den Unterhalt und die Pflege der bestehenden Systeme und nur etwa 15 Prozent in neue Projekte. Diese Systeme sind teilweise Jahrzehnte alt. Es ist Aufgabe von beiden Seiten, Industrie und Kunden, sicherzustellen, dass die Gelder umverteilt werden und der Betrieb so effizient und schlank wie möglich funktioniert. Das geht nur, wenn man sich in diesen integrierten Stack hineinbewegt. Das wird sicher nicht von einem Tag auf den anderen passieren, aber schrittweise.

Viele andere Anbieter haben diese Idee auch aufgegriffen und bauen integrierte Systeme…

Kunz: Das bestätigt uns natürlich, weil wir damit angefangen haben.

Cisco hat schon 2009 mit EMC und VMware die ersten Komplettsysteme herausgebracht. Erst danach kamen die anderen großen IT-Anbieter auf diese Idee.

Kunz: Aber es ist schon ein Unterschied, ob ich ein integriertes System von der Festplatte bis zur Applikation baue oder ob ich eine vorkonfigurierte Maschine in einem Netzwerkumfeld anbiete. Das ist eine andere Dimension.

Grundsätzlich verfolgen alle großen IT-Anbieter ähnliche Konzepte mit Komplettsystemen. Wie kann Oracle hier im Wettbewerb punkten?

Kunz: Es ist entscheidend, welche Varianten sich realisieren lassen. Unsere Systeme sind ein Beleg dafür, wie breit unsere Produktpalette ausgelegt ist. Natürlich ist es unrealistisch zu sagen, jeder Kunde macht von jetzt an nur noch in rot. Aber wir bieten für bestimmte Bereiche Konfigurationen, mit denen sich Optimierungen erzielen lassen. Deswegen haben wir auch unser Exa-Portfolio in verschiedene Bereiche wie "Exadata", "Exalytics" und "Exalogic" unterteilt. Wenn es um die Infrastrukturebene geht, reden wir über Exadata. Wenn es darum geht, Middleware zu konsolidieren, kommt Exalogic ins Spiel. Wenn es sich um Analytics und das Data Warehouse dreht, können Kunden auf Exalytics zurückgreifen. Wir können uns schrittweise in so eine Konsolidierung hineinbewegen, ohne dem Kunden zu sagen: Schmeiß alles weg, was du im Einsatz hast.

Das ist der Vorteil bei einer Exa-Plattform: Sie dient auf der einen Seite dazu, die Performance in den einzelnen Applikationen sicherzustellen, aber auch auf der anderen Seite eine Konsolidierung im Infrastrukturbereich zu erzielen. Dabei eignet sich die Exa-Plattform für alle Umgebungen, ob das nun eine Oracle-Anwendung ist, eine SAP-Applikation oder eine Eigenentwicklung. Damit sprechen wir hier über einen wirklichen Plattformgedanken und nicht über isolierte Stacks. Das macht einen gewaltigen Unterschied. Damit lassen sich Kosteneinsparungen erzielen und gleichzeitig der Betrieb hoch-performanter Plattformen sicherstellen. Und das in unterschiedlichen Konstellationen, je nachdem wo der Schwerpunkt der Kundenprojekte liegt. Das macht auch den großen Unterschied gegenüber dem Wettbewerb aus.

Welche Klientel adressieren Sie mit diesen Systemen?

Kunz: Die Exa-Maschinen sind auch im Mittelstand stark nachgefragt. Die Konfigurationen beginnen mit den Full-Racks - das waren auch die großen mächtigen Maschinen der ersten Generation. Mittlerweile haben wir die Systeme unterteilt: Es gibt Half-Racks, Viertel-Racks bis hinunter zu Achtel-Racks. Kunden können in einer kleinen Konfiguration beginnen und diese dann entsprechend ausbauen. Damit sind die Systeme auch absolut für den Mittelstand geeignet.

Wie werden die Maschinen vorwiegend eingesetzt?

Kunz: Die großen Unternehmen sehen diese Systeme vor allem als Konsolidierungsplattform. Es gibt Kunden, die haben hunderte von Servern durch eine beziehungsweise ein paar wenige Exa-Maschinen ersetzt. Das hat natürlich Konsequenzen auf allen Ebenen. Letztlich fängt es mit der Konsolidierung auf Infrastrukturebene an. Richtig interessant wird es aber, wenn die Diskussionen weitergehen, beispielsweise welche Konsequenzen das auf die Abläufe hat. Wie wirkt sich das auf der Prozessebene aus, auf der Applikationsebene und der Infrastrukturebene? So einen Strategiewechsel muss man im Gesamtkontext sehen.

In-Memory-Technik ist nichts Neues

Eine Appliance, die zuletzt für viel Furore im Markt gesorgt hat, ist SAPs HANA. Wie spüren Sie das im Markt?

Kunz: Generell muss man hier festhalten, dass es sich um In-Memory-Technik handelt und die ist nichts Neues. In-Memory-Technik gibt es seit vielen, vielen Jahren. Für einige ist das Thema neu, für andere bereits etabliert - wie bei Oracle. Wir haben 2005 mit TimesTen den zur damaligen Zeit marktführenden Anbieter von In-Memory-Technik gekauft. Seit dieser Zeit ist das eine Technik, die wir im Hause haben und die wir natürlich auch nutzen. Beispielsweise ist In-Memory als Embedded-Technik in die Exa-Strategie mit eingeflossen. Das Exalytics-Portfolio verfügt heute über eine Embedded In-Memory-Technologie. Die einen Firmen entdecken das Thema jetzt gerade, bei den anderen ist es schon Standard.

Das aber mit großem Erfolg, wenn man sich die HANA-Zahlen so ansieht.

Kunz: Das will ich jetzt nicht kommentieren, ob das ein Erfolg ist.

SAP positioniert HANA als Ersatz klassischer Datenbanken. So wie ich Sie verstanden habe, verwenden Sie In-Memory als ergänzende Technik in ganz bestimmten Anwendungsbereichen. Wo sehen Sie die In-Memory-Technik im Markt?

Kunz: In-Memory gibt in bestimmten Bereichen durchaus Sinn, aber nicht in allen Bereichen. Wir haben die Technik seit acht Jahren im Haus und es ist jetzt nicht so, dass In-Memory die Innovation ist, die alles auf den Kopf stellt. Man muss sich natürlich überlegen, welche Auswirkungen so eine Technik über alle Layer hinweg hat. Bringt es auch wirklich die Mehrwerte, wenn ich das in jedem einzelnen Bereich separat aufsetze? In-Memory eignet sich sicher in einem Analyseumfeld - deshalb auch als Embedded-Technik in der Exalytics. Aber macht die Technik auch wirklich in jedem OLTP-, in jedem Application-Umfeld Sinn? Lässt sich das überhaupt umsetzen, beispielsweise in stark angepassten Umgebungen, wo nicht alles standardisiert ist? Bekommt man dann überhaupt den erhofften Performance-Gewinn?

Das sind ja die Versprechen der SAP: Alles wird einfacher und schneller.

Kunz: Man wird sehen, was am Ende des Tages herauskommt. Wir sagen: Das macht in manchen Bereichen Sinn, aber nicht in jedem. Wenn wir glauben würden, dass der Einsatz überall sinnvoll ist, dann hätten wir In-Memory überall als Embedded-Technik implementiert.

Big Data ist nicht mit In-Memory gleichzusetzen

Jetzt nehmen allerdings gerade die Big-Data-Projekte in den Unternehmen allmählich Fahrt auf. Das Thema stand ja vor sieben Jahren noch nicht auf der Tagesordnung.

Kunz: Wenn man Big Data mit In-Memory gleichsetzen würde, wäre das ein Riesenfehler. Big Data ist die große Überschrift. Aber man muss sich genau fragen: Was steht eigentlich dahinter? Viele CIOs sehen das Thema ganz pragmatisch: Früher hat sich das Transaktionsvolumen alle 18 Monate verdoppelt, heute passiert das alle sieben Monate - damit muss man klarkommen - Punkt. Andere sehen das Thema eher aus dem Content-Blickwinkel. Hier bieten sich Möglichkeiten, komplett neue Services aufzusetzen, über die man sich im Markt gegenüber dem Wettbewerb differenzieren könnte. Aus deren Sicht ist das Thema Big Data sehr stark Content-getrieben.

Big Data
Das Thema Big Data/Datenflut hat nach Einschätzung der Analysten von Steria Mummert Consulting eine regelrechte Medienkarriere hingelegt. Die Analysten sprechen von einer "Big-Data-Hysterie".
Dr. Frtiz Moser, CEO von Steria Mummert
Fritz Moser, CEO bei Steria Mummert, wollte dem Big Data-Hype auf den Grund gehen. An der Studie "BiMA 2012/13" haben 668 Entscheider teilgenommen.
Probleme bei Business Intelligence
Als wichtigste Probleme bei Business Intelligence gelten unzureichende Datenqualität und das Fehlen einer allgemein akzeptierten BI-Strategie.
Fachbereiche versus Informatiker
Steria Mummert beobachtet, dass Fachbereiche höhere Erwartungen in BI setzen als Informatiker. Zum Beispiel trauen Fachbereiche Analytischen Plattformen mehr zu.
Vor allem Eines: sachlich bleiben
Wichtigster Rat von Steria Mummert an CIOs in puncto Big-Data-Initiativen: Sachlich bleiben. Use Cases für Big Data aus anderen Bereichen prüfen und anhand eines Proof of Concept hinsichtlich ihres Mehrwertes und der technischen Machbarkeit evaluieren.

Wie sieht das konkret in der IT-Praxis aus?

Kunz: Diese Kunden haben einen Datentopf, der mit strukturierten und unstrukturierten Daten gefüllt ist, und den sie mit der größtmöglichen Flexibilität auswerten wollen. Technisch liegt die Herausforderung darin, dass die meisten mit ihrer bestehenden Infrastruktur- und Applikationsplattform Big Data nicht machen können. Das würde alles sprengen. Also müssen sie einen Weg finden, die Daten so aufzubereiten, dass sich daraus Content ableiten und Services entwickeln lassen. Das kann man dann in einem CRM-System umsetzen beziehungsweise über eine Schnittstelle einfließen lassen. Die Volumina, über die wir hier sprechen, lassen sich allerdings in den heute bestehenden CRM-Systemen nicht handeln. Damit würde man die bestehende Infrastruktur komplett aufblähen. Das ist einfach eine völlig andere Dimension, die hier ins Spiel kommt. Zudem verändern sich diese Services auch permanent - gerade im Consumer-Segment.

Müssen sich die Unternehmen überlegen, wie sie dafür ihre Prozesse neu aufstellen?

Kunz: Das ist gerade die Frage, ob sie das tun. Ich kenne viele Unternehmen, die sagen: Genau das machen wir jetzt nicht. Wir werden nicht unsere komplette Prozesslandschaft umstellen, weil wir eventuell neue Tendenzen von neuen Services sehen. Das würde aus deren Sicht viel zu lange dauern und ist viel zu starr. Das Thema, flexibel auf die Anforderungen zu reagieren, den Content neu zu entwickeln und ihn auch permanent zu verändern, das sind die spannenden Fragen. In einem Backoffice, wie es heute in den meisten Firmen etabliert ist, ist so etwas gar nicht machbar. Dort laufen SCM-Prozesse - die sind fix etabliert mit den Lieferanten. Aber alles, was Consumer-orientiert ist, kann man heute nicht mehr fest verdrahten - bei der Flexibilität, die in diesem Umfeld notwendig ist.

Die Private Cloud hat sich etabliert

Das ‚c‘ in Oracles kürzlich vorgestelltem neuen Datenbank-Release 12c steht für Cloud Computing. Worauf konzentrieren aus Ihrer Sicht die Anwender ihre Aktivitäten - sind das eher Private-Cloud-Initiativen oder reicht es auch schon weiter in die Public-Cloud?

Kunz. Die Private Cloud hat sich mittlerweile etabliert. Da wird vielleicht nicht mehr viel darüber geredet. Denn wenn man sich die großen Unternehmen ansieht, dann ist Private Cloud nichts, was erst seit gestern gemacht wird. Vielleicht wurde es anders genannt, Shared Service Center oder so ähnlich, aber die dazu gehörige Infrastruktur-Plattform ist eine Private-Cloud-Plattform. Das Thema Software as a Service (SaaS) stößt derzeit auf wachsendes Interesse draußen im Markt. Beispielsweise wächst das Thema Human Capital Management (HCM) im Cloud-Umfeld derzeit massiv. Der Grund liegt darin, dass sich ein Private Cloud Service an dieser Stelle wunderbar anbietet. Den Unternehmen genügt eine standardisierte Lösung, es gibt in der Regel wenig Anpassungsbedarf. Damit stellt sich automatisch die Frage, ob man so eine Standardfunktionalität selbst betreiben oder nicht besser aus einer Cloud beziehen sollte. Wo es sicher in nächster Zeit noch spannend werden wird, sind Plattform- und Infrastruktur-Themen.

Die Skepsis wächst, trotz guter Erfahrungen
Obwohl die meisten Nutzer mit Cloud-Lösungen zufrieden waren - mehr als drei Viertel aller Nutzer gab dies an -, wächst die Skepsis vor allem gegenüber der Public Cloud. Nur ein Prozent mehr als 2011 konnte positive Erfahrungen sammeln, während die Zahl der Skeptiker stieg. 19 Prozent der Befragten gaben an, der Wolke eher negativ gegenüber zu stehen, im Vorjahr waren es noch 16 Prozent. Auch die Zahl derjenigen, die "eher positiv" eingestellt waren, schrumpfte. Dies betrifft nicht nur Public-Cloud-Lösungen, wie die Studie ergab, ...
Deutsche Unternehmen immer vorsichtiger
... sondern auch die generelle Einstellung der Unternehmen gegenüber der Wolke. Auch hier gilt: Mehr Firmen sind aufgeschlossen und interessiert, aber ebenso viele sind kritisch eingestellt. Dass es immer weniger Unentschiedene gibt, schreiben die Analysten von KPMG der Tatsache zu, dass das Thema generell mehr an Reife gewonnen hat.
Diese Branchen nutzen die Private Cloud am meisten
Der ITK-Sektor ist wieder mal der Vorreiter: Mehr als die Hälfte (58 Prozent) der Unternehmen aus diesem Bereich nutzt schon die Private Cloud. Aber auch die Chemie- und Pharmabranche, sowie Verkehr und Logistik zeigen sich dem Trend gegenüber aufgeschlossen. Vorsichtig und Investitions-scheu zeigten sich dagegen die Maschinen- und Anlagebauer, sowie der Groß- und Einzelhandel. "Bei diesen Branchen ist auch der Anteil der Cloud-Skeptiker/-Unentschlossenen hoch", heißt es in der Studie.
Anteil der Private Cloud am IT-Budget wird weiter wachsen
Noch macht die Private Cloud nur einen geringen Anteil am IT-Budget aus. Fast jedes zehnte Unternehmen investiert heute gar nicht in die Private Cloud - dieser Anteil wird aber in zwei Jahren auf drei Prozent gesunken sein. In fast jedem dritten Unternehmen (32 Prozent) werden nur ein bis zehn Prozent für die Private Cloud aufgewendet. Eine große Investition mit mehr als 50 Prozent des Etats - daran glauben immerhin noch 18 Prozent der Befragten. Im Schnitt, so das Ergebnis der Studie, würde knapp ein Viertel (24 Prozent) des IT-Budgets für die Private Cloud ausgegeben. 2011 waren es nur 19 Prozent. Die Tendenz zur mehr Investition zeichnet sich deutlich ab: In zwei Jahren werde dies, so glauben viele Unternehmen, auf 34 Prozent steigen. Die Private Cloud mag zwar angekommen sein, ...
Unternehmen fürchten den Datenverlust
... für die Public Cloud gilt das aber nur bedingt. Als größte Herausforderung für Public-Cloud-Anbieter hat sich, wie in vergangenen Jahren auch, der Datenschutz erwiesen. Insgesamt 73 Prozent der Befragten gaben an, mehr oder weniger ausgeprägt Datenverlust zu fürchten. Und sogar 75 Prozent bemängelten, dass sich unterschiedliche Public-Cloud-Lösungen nicht miteinander vertrügen und dass sie oft nicht mit inhouse Anwendungen kompatibel seien. Auch die unklare Rechtslage und die Angst davor, IT-Know-How zu verlieren, sind Hinderungsgründe. Die Bedenken schlagen sich auch in den Nutzerzahlen wieder:
Vor allem größere Unternehmen nutzen die Cloud
Zwar nutzen doppelt so viele Unternehmen Public-Cloud wie noch im Vorjahr, so ein Ergebnis der Studie, aber der Mittelstand setzt noch nicht auf die Public-Cloud. Vor allem große Unternehmen mit mehr als 2000 Mitarbeitern nutzen sie: Hier ist jede fünfte Firma zu finden. Bei kleineren Unternehmen mit weniger als 100 Angestellten sind es nur fünf Prozent. Hier ist der Anteil gleich geblieben.
Software as a Service liegt bei Nutzung vorn
Wenn Unternehmen in der Public Cloud aktiv sind, setzen sie vor allem auf Software as a Service (SaaS): Schon 17 Prozent nutzen sie bereits, fast eben so viele planen sie. Allerdings hat SaaS an Boden verloren: 2011 gaben noch 25 Prozent an, dies zu nutzen. Infrastructure as a Service (IaaS) und Platform as a Service (PaaS) liegen knapp dahinter. Business Process as a Service (BPaaS) hat deutlich zugenommen: 2011 nutzten nur ein Prozent der Befragten BPaaS, nun sind es immerhin elf Prozent. Ein Trend lässt sich hier noch nicht festmachen. Inwieweit Software as a Service in Zukunft eine Rolle spielen wird, lässt sich noch nicht sagen.
Gewisse Sättigung erreicht
Zwar glauben viele Unternehmen, dass die Aufwendungen für Cloud-Lösungen zunehmen werden. Aber es sieht so aus, als wäre eine gewisse Sättigung erreicht. Weniger als noch 2011 wollen Unternehmen viel Geld in die Hand nehmen und wenn, dann auch eher für Private-Cloud-Lösungen. Aber wenigstens sind sich alle einig: Dass die Ausgaben sinken, davon geht fast keiner aus.

Wie beurteilen Sie das Thema IaaS - ist das ein valides Geschäftsmodell?

Kunz: Ich denke schon, dass es eine Chance haben kann. Aber momentan gelten an dieser Stelle aus meiner Sicht die gleichen Voraussetzungen wie beim Plattformaspekt. Man muss sich überlegen, ob es eine kritische Masse dafür gibt, und was geeignete Infrastrukturumgebungen sein könnten, die sich für ein entsprechendes Cloud-Offering eignen. Da steckt man, wenn man das mit dem Thema SaaS vergleicht, noch in den Anfängen.

Andere Unternehmen wie Amazon und Microsoft sind an dieser Stelle bereits sehr aktiv. Verpasst Oracle da nicht den Anschluss?

Kunz: Nein, es ist ja nicht so, dass wir diese Angebote nicht haben. Gerade im Silicon Valley ist das bei vielen Startups eine durchaus gefragte Plattform. Der deutsche Markt ist allerdings eine andere Sache.

Warum stellt sich für Sie in Deutschland die Situation anders dar?

Kunz: Das liegt einfach an der Menge der Innovationsthemen. Das Angebot muss natürlich auch angenommen und genutzt werden. Hier bewegt man sich in Deutschland meist noch in einem etwas konservativeren Modell als es vielleicht in den USA der Fall ist. Dort ist eher die Flexibilität das Kernkriterium. In Deutschland wird mehr über Sicherheit diskutiert. Das sind berechtigte Fragen.

Betreibt Oracle Rechenzentren in Deutschland beziehungsweise Europa?

Kunz: In Deutschland nicht, aber wir haben zwei Rechenzentren in Schottland und bauen momentan ein weiteres in Amsterdam auf.

Kunden verlangen Flexibilität in der Cloud

Gerade die klassischen Softwareanbieter, die im Lizenz-Wartungsgeschäft groß geworden sind, tun sich oft schwer bei der Umstellung auf SaaS-Produkte. Welche Rolle wird dieser Zweig in Ihrem künftigen Applikationsgeschäft spielen?

Kunz: Eine ganz wichtige Rolle. Das sieht man auch an den Akquisitionen, die Oracle zuletzt getätigt hat. In den vergangenen beiden Jahren hat es sich bei fast allen Zukäufen um Ergänzungen unseres Cloud-Umfelds gehandelt. Das ist ein Beleg dafür, dass wir diesen Bereich nicht nur ernst nehmen, sondern dass dieser absolute Priorität in unserer Strategie genießt. Unser Ansatz ist, den Kunden die Wahl zu lassen, ob sie ihre Lösungen on-premise betreiben oder aus der Cloud beziehen wollen.

Was ist denn für die Kunden entscheidend?

Kunz: Wenn es um das Cloud-Angebot geht, ist es besonders wichtig, auch über die Architektur zu sprechen. Es geht hier um Interoperabilität. Schließlich ist es für die Kunden entscheidend, den Cloud-Anbieter auch wechseln zu können, beziehungsweise einen Cloud-Service wieder zurück in eine On-Premise-Umgebung im eigenen Unternehmen holen zu können. Wenn Sie das von der Architektur her nicht bieten können, dann meinen Sie es nicht ernst mit der Cloud. Hier trennt sich die Spreu vom Weizen. Es dreht sich an dieser Stelle sehr stark um eine Architekturdiskussion. Es geht nicht nur um die Funktionen, die man in der Cloud anbietet. Man muss dem Kunden auch Flexibilität bieten. Oder er ist verhaftet, wenn er sich einmal für einen bestimmten Cloud-Service entscheidet.