Performance-Explosion durch In-Memory

42 Sekunden statt 75 Minuten

Eine Antwort auf Datenabfragen haben In-Memory-Anwender 107mal schneller auf dem Schirm als Benutzer mit herkömmlicher Technik. Das hat Aberdeen in einer Studie ermittelt.

In-Memory Computing ist ein Thema, das auch IT-Verantwortliche im Mittelstand schnell fasziniert – oft im Gegensatz zum schwammigen Begriff Big Data. Dabei sind beide Themen verschwistert, vielleicht sogar nur zwei Gestalten eines Phänomesn: Big Data die unscheinbare Raupe, In-Memory Computing der schillernde Schmetterling. Hält die Technologie aber, was sie verspricht? Aber ja, sagt eine Studie von Aberdeen.

Die Klassenbesten leiden am stärksten unter der Datenflut - und profitieren von diesem Handlungsdruck.
Die Klassenbesten leiden am stärksten unter der Datenflut - und profitieren von diesem Handlungsdruck.
Foto: Aberdeen Group

Wie Aberdeen-Analyst Nathaniel Rowe deutlich macht, bringt In-Memory Computing den Anwendern frappierende Performance-Vorteile, die von höchstem geschäftlichem Nutzen sind. Basis dieser Erkenntnis sind mehrere Aberdeen-Erhebungen, wichtigster Ausgangspunkt darunter ist eine aktuelle Big Data-Studie. Um die schiere Zauberkraft von In-Memory zu erahnen, muss man dabei erst einmal einen zirkelschlussartigen Gedanken verstehen.

Aberdeen unterscheidet wie stets zwischen Klassenbesten, Durchschnitt und Hinterbänklern. Die Klassenbesten – in der raschen Nutzbarmachung hochwertiger Daten für geschäftliche Zwecke führende Firmen – leiden zu 76 Prozent an einem Problem, das nicht einmal für jeden vierten Nachzügler relevant ist: ein als zu schnell erlebtes Wachstum der Mengen zu verarbeitender Daten.

Zauberhaft und zirkelartig erscheint nun, dass diese Unbill in Wahrheit ein echter Segen zu sein scheint: ein Problem, dass zu seiner Lösung zwingt und dadurch automatisch auf eine höhere Performance-Stufe führt. Mit einigen Zahlen unterfüttert beschreibt Rowe nämlich folgendes Phänomen: Die Klassenbesten leiden unter der Datenflut so arg, dass Echtzeit-Datenanalyse quasi unumgänglich wird; deshalb kommt dort verstärkt In-Memory Computing zum Einsatz, was neben der Lösung des eigentlichen Problems eine Reihe weiterer Vorzüge mit sich bringt.