Performance-Explosion durch In-Memory

42 Sekunden statt 75 Minuten

18.04.2013 von Werner Kurzlechner
Eine Antwort auf Datenabfragen haben In-Memory-Anwender 107mal schneller auf dem Schirm als Benutzer mit herkömmlicher Technik. Das hat Aberdeen in einer Studie ermittelt.

In-Memory Computing ist ein Thema, das auch IT-Verantwortliche im Mittelstand schnell fasziniert – oft im Gegensatz zum schwammigen Begriff Big Data. Dabei sind beide Themen verschwistert, vielleicht sogar nur zwei Gestalten eines Phänomesn: Big Data die unscheinbare Raupe, In-Memory Computing der schillernde Schmetterling. Hält die Technologie aber, was sie verspricht? Aber ja, sagt eine Studie von Aberdeen.

Die Klassenbesten leiden am stärksten unter der Datenflut - und profitieren von diesem Handlungsdruck.
Foto: Aberdeen Group

Wie Aberdeen-Analyst Nathaniel Rowe deutlich macht, bringt In-Memory Computing den Anwendern frappierende Performance-Vorteile, die von höchstem geschäftlichem Nutzen sind. Basis dieser Erkenntnis sind mehrere Aberdeen-Erhebungen, wichtigster Ausgangspunkt darunter ist eine aktuelle Big Data-Studie. Um die schiere Zauberkraft von In-Memory zu erahnen, muss man dabei erst einmal einen zirkelschlussartigen Gedanken verstehen.

Aberdeen unterscheidet wie stets zwischen Klassenbesten, Durchschnitt und Hinterbänklern. Die Klassenbesten – in der raschen Nutzbarmachung hochwertiger Daten für geschäftliche Zwecke führende Firmen – leiden zu 76 Prozent an einem Problem, das nicht einmal für jeden vierten Nachzügler relevant ist: ein als zu schnell erlebtes Wachstum der Mengen zu verarbeitender Daten.

Zauberhaft und zirkelartig erscheint nun, dass diese Unbill in Wahrheit ein echter Segen zu sein scheint: ein Problem, dass zu seiner Lösung zwingt und dadurch automatisch auf eine höhere Performance-Stufe führt. Mit einigen Zahlen unterfüttert beschreibt Rowe nämlich folgendes Phänomen: Die Klassenbesten leiden unter der Datenflut so arg, dass Echtzeit-Datenanalyse quasi unumgänglich wird; deshalb kommt dort verstärkt In-Memory Computing zum Einsatz, was neben der Lösung des eigentlichen Problems eine Reihe weiterer Vorzüge mit sich bringt.

Im Durchschnitt haben die Klassenbesten laut Studie mit 240 Terabyte rund 42 Prozent mehr an Daten zu verarbeiten als die Hinterbänkler. Dafür sind sie zu 92 Prozent in der Lage, den Anforderungen an das Management dieser Daten gerecht zu werden. Für die Nachzügler gilt das nur zu 48 Prozent. Darüber hinaus erfreuen sich die Klassenbesten fast durchweg an genauen, zuverlässigen und fehlerfreien Berichten.

Risikofaktor RAM-Speicher

Herzstück dieses Erfolges ist offenbar – auch – In-Memory Computing, das 38 Prozent der besonders erfolgreichen Firmen einsetzen, aber kein einziger der Nachzügler. Die In-Memory-Nutzer analysieren laut Aberdeen mit durchschnittlich 14 Terabyte mehr als dreimal so viele Daten als der Rest. Die durchschnittliche Antwortzeit für eine Datenanalyse oder –abfrage beträgt 42 Sekunden anstatt 75 Minuten – eine Steigerung um das 107fache.

Unter anderem derartige Performance-Pulverisierungen fließen in die Umfragedaten von Aberdeen mit ein, die Klassenbesten eindrucksvolle Erfolge in den vergangenen Monaten bescheinigt. Etwa konnte die für Datensuche benötigte Zeit um eine Viertel gesenkt werden, die Datenqualität verbesserte sich in gleichem Ausmaß, die Genauigkeit geschäftlicher Entscheidungen sogar um 31 Prozent. Bei den Nachzüglern verschlechterten sich diese Werte hingegen im Durchschnitt.

Aberdeen zeigt zudem, dass die Klassenbesten die besseren und passgenauen Analysen auch in höhere Verkaufszahlen sowie gesteigerte Zufriedenheit der Kunden ummünzen konnten. Auch die Kundenbindung konnte ausgebaut werden.

Das Potenzial von In-Memory Computing erscheint soweit eindrucksvoll. Problematisch sind laut Aberdeen drei Dinge: Erstens besteht beim Vorhalten der in Echtzeit zu analysierenden Daten im RAM-Speicher das Risiko des Datenverlustes, wenn etwa die Server kollabieren.

Zweitens limitiert die auf den Servern laufende Software den RAM-Speicher, der für In-Memory Computing zur Verfügung steht. Drittens könne sich überraschend die Software für Business Intelligence (BI) und Analyse als Hindernis entpuppen, weil sie oft nicht für In-Memory Computing optimiert sei.

Lösungen auf für kleine Firmen

Antworten auf diese Probleme bieten laut Aberdeen einerseits die maßgeschneiderten Lösungen, die zumeist nur für große Firmen erschwinglich seien. Andererseits gebe es mittlerweile aber auch BI- und Data Management-Software, die das In-Memory Potenzial gewöhnlicher Server ausschöpfen können und eine Alternative für kleine und mittlere Firmen seien. Zur Prüfung eines Business Case rät Aberdeen in jedem Fall.

Die Studie „In-Memory Computing“ ist bei Aberdeen erhältlich.

Dieser Artikel basiert auf einem Beitrag der TecChannel-Schwesterpublikation CIO.