Die schlimmsten IT-Fehler

Die zehn größten IT-Irrtümer und -Fehlprognosen

22.12.2015 von Klaus Manhart
Top-Ten: Falsche Prognosen, Irrtümer und Fehlurteile - In der Informationstechnik eher die Regel als die Ausnahme. Die zehn historisch wichtigsten haben wir für Sie herausgepickt und analysiert.

Hinterher ist man immer schlauer – und das gilt besonders für Prognosen in der IT. Wer kann heute nicht darüber schmunzeln, wenn IBM-Chef Thomas Watson 1943 prophezeite: „Ich denke, dass es einen Weltmarkt für vielleicht fünf Computer gibt.“ Oder Bill Gates das grandios gescheiterte OS/2 als die Plattform der 90er Jahre prognostizierte.

Heute greift man sich an den Kopf über die Kurzsichtigkeit oder Verbohrtheit der vermeintlichen Experten. Wie konnten ausgewiesene Fachleute solche peinlichen Fehler begehen? Doch Vorsicht: Etwas Nachsicht ist hier angebracht. Denn was heute Realität ist, war damals in den wenigsten Fällen vorstellbar.

Zu bedenken ist: Gerade im IT-Sektor verläuft die Entwicklung so rasant, dass Prognosen auch nur über zwei oder drei Jahre gefährlich werden. Wer immer es wagt, Voraussagen über die IT-Entwicklung abzugeben, tritt leicht ins Fettnäpfchen.

In diesem Beitrag haben wir, historisch sortiert, die zehn größten IT-Irrtümer und Fehlprognosen zusammengestellt – welchen Unsinn man glaubte, wie sich Experten irrten und welche Fehlprognosen Politiker abgaben. Wie sagte doch der Schauspieler Sir Peter Ustinov: „Die letzte Stimme, die man hört, bevor die Welt explodiert, wird die Stimme eines Experten sein, der sagt: ‚Das ist technisch unmöglich!’“

Irrtum 1: Das Telefon

„Das Telefon hat zu viele ernsthaft zu bedenkende Mängel für ein Kommunikationsmittel. Das Gerät ist von Natur aus von keinem Wert für uns.“ Manager von Western Union, 1876

„Eine erstaunliche Erfindung. Aber wer sollte sie jemals benutzen wollen.“ US-Präsident Rutherford B. Hayes (1822–1893), Kommentar zum ersten Telefon, 1877

Dass man sich bei neuen Technologien so gar nicht vorstellen kann, zu was sie gut sein sollen, offenbarte sich ganz deutlich bei der Erfindung des Telefons. In beiden Zitaten drückt sich ahnungsloses Achselzucken aus, wenn es um die Frage ging, wozu das neue Kommunikationsmedium taugen soll.

Am ehesten Verständnis für mangelnde Vorstellungskraft lässt sich noch R.B. Hayes attestieren, US-Präsident von 1877 bis 1881. Doch gerade Western Union hätte mehr Weitsicht beweisen können – immerhin zu damaligen Zeiten ein bedeutendes Telekommunikationsunternehmen. Noch 1974 machte es als erste amerikanische Gesellschaft mit eigenen Kommunikationssatelliten in einer geosynchronen Umlaufbahn von sich reden. In den frühen 1980er Jahren begann Western Union wegen rückläufiger Gewinne und steigender Schulden den langsamen Rückzug aus telekommunikationsbasierten Anlagen und begann, sein Geschäft mit Geldtransfers auszuweiten.

Wandfernsprecher: 1881 begann in Berlin der Probebetrieb mit acht Fernsprechanschlüssen. (Quelle: Telekom-Historik Bochum)

Wie dem auch sei, der Nutzwert des Telefons und seiner mobilen Variante ist heute unbestritten. Es verbindet Menschen auf der ganzen Welt, liefert Informationen und rettet in Notfällen Leben. Und: Die Verbreitung ist inzwischen enorm. Fast alle deutschen Haushalte verfügen heute über ein Telefon. Selbst Umfrageinstitute können inzwischen davon ausgehen, bei Telefoninterviews repräsentative Daten zu erhalten.

Irrtum 2: Das Radio

„Die drahtlose Musikbox hat keinen denkbaren kommerziellen Wert.“ Ein potenzieller Investor zur Erfindung des Radio in den 1920ern.

Eine fatale Fehleinschätzung – wie sich schon bald herausstellte. 1920 nahm in Pittsburgh (USA) die erste kommerzielle Radiostation ihren regelmäßigen Betrieb auf. Am 22. Dezember 1920 fand in Deutschland die erste Rundfunkübertragung eines Instrumentalkonzerts durch den posteigenen Langwellensender in Königs Wusterhausen statt. Ab 1922 wird der „Wirtschaftsrundspruchdienst“ als erster regelmäßiger und gebührenpflichtiger Rundfunk betrieben.

1923 wird der erste Radioclub in Berlin gegründet sowie der Verband der Rundfunkindustrie in Berlin. Als Geburtsstunde des deutschen Rundfunks gilt der 29. Oktober 1923. An diesem Tag wird die erste Unterhaltungssendung aus dem Vox-Haus ausgestrahlt. Wenige Tage später folgt mit der „Berliner Funk-Stunde“ die erste Nachrichtensendung. Von da an ging es stetig aufwärts.

In den 70er /80er Jahren schien das Radio tatsächlich zu verschwinden – oder zumindest in seiner Bedeutung abzunehmen. Fernsehen und Musikmedien wie Schallplatten, MCs oder CDs machten dem Radio zunehmend Konkurrenz.

Doch mit dem Internet-Zeitalter erfuhr es eine Renaissance – wenn auch in stark abgewandelter Form. MP3-Player und iPods können in gewisser Weise als die Nachfolger des guten alten Radios angesehen werden – mit denen sich auch glänzend Geschäfte machen lässt. Und als Audio-Podcasts kommt das Radio in reiner Form zurück, mit allen Ingredenzien des Internet-Zeitalters.

Irrtum 3: Der Mainframe

„Ich denke, dass es einen Weltmarkt für vielleicht fünf Computer gibt.“ Thomas Watson, IBM-Vorsitzender, 1943

Er war einer der reichsten Männer seiner Zeit und gründete den Weltkonzern IBM. Thomas Watson soll diesen Satz 1943 gesagt haben, ein paar Jahrzehnte, bevor der IBM-PC in millionenfacher Ausführung den Weltmarkt überschwemmte.

Wie es zu dem Fehlurteil kam, deutet „Der Spiegel“ in seiner Ausgabe vom 26. Mai 1965 im Artikel „Elektronenroboter in Deutschland“ an: „... IBM-Chef Thomas Watson hatte zunächst von neuen Geräten nichts wissen wollen. Als in den frühen 50er Jahren die ersten Rechenungetüme für kommerzielle Nutzung auftauchten, die mit ihren Tausenden von Röhren ganze Zimmerfluchten füllten und unerträgliche Hitze entwickelten, schätzte Watson den Bedarf der US-Wirtschaft auf höchstens fünf Stück ...“

Kein Wunder also, dass Watson den Verbrauch so niedrig kalkulierte, angesichts der Riesengeräte mit hohem Platz- und Stromverbrauch. Die heutige Entwicklung konnte Watson nicht vorhersehen, weil der Basisbaustein, der Transistor, erst 1947 von amerikanischen Wissenschaftlern der Bell Laboratories erfunden wurde.

Röhrenbestückte Ungeheuer: Zu Watsons Zeiten waren Computer, wie hier die bekannte ENIAC, Hallen füllende Rechner mit starker Hitzeentwicklung. (Quelle: www.don-lindsay-archive.org/talk/eniac.jpg)

Bis dahin konnten Rechner nur mit elektromechanischen Relais oder Elektronenröhren gebaut werden. Die Bedeutung dieses Faktors wird deutlich, wenn man der Anekdote glaubt, nach der in Philadelphia jedes Mal die Lichter flackerten, wenn der röhrenbasierte ENIAC-Rechner eingeschaltet wurde.

Irrtum 4: Schach und KI

„Innerhalb der nächsten zehn Jahre wird ein Computer Schachweltmeister werden und innerhalb der nächsten zehn Jahre ein wichtiges und neues mathematisches Theorem entdecken und beweisen.“ Herbert Simon, KI-Forscher und Nobelpreisträger, 1957

Es war 1957 in Dartmouth, als Herbert Simon und andere sich erstmals einem Thema widmeten, das sich fortan „Künstliche Intelligenz“ nenne sollte. Das Ziel: Computern menschliches Denken beibringen. Die Annahme: Zwischen menschlichem Gehirn und Rechnern besteht kein grundsätzlicher Unterschied, beide sind informationsverarbeitende Systeme. Diese laufen zwar auf unterschiedlichen Plattformen ab (biologische „Wetware” versus Hardware), arbeiten aber nach denselben Grundprinzipien.

Also müsse es möglich sein, menschliche Sprache, Schlussfolgern und andere kognitive Fähigkeiten maschinell nachzubauen. Der Erfolg des Projekts sollte an „hard facts” gemessen werden – siehe Zitat.

Simons Prognose ist nicht in Erfüllung gegangen – so wie die ganze KI mit ihren überzogenen Ansprüchen bislang gescheitert ist. Zwar hat der IBM-Rechner „Deep Blue” tatsächlich den damals amtierenden Schachweltmeister Gary Kasparov in sechs Partien besiegt. Aber dies war erst 1996 der Fall. Zudem arbeitet Deep Blue mit Brute-Force-Techniken und Ausreizung hardware-technischer Tricks. Simon hatte sich seinen Schachcomputer aber als Maschine vorgestellt, die über dedizierte Nachahmung menschlicher Schachspieler zum Sieg führt.

Auch der zweite Teil der Prognose schlug fehl. Zwar können „Automatische Theorembeweiser” einfache mathematische Sätze beweisen. Aber der Computer-Beweis eines neuen und wichtigen Theorems steht noch aus. Der Vier-Farben-Satz war das erste große mathematische Problem, das mit Hilfe von Computern gelöst wurde – allerdings agierten die Rechner hier nur als Helfer und führten keinen vollständigen Beweis durch.

Irrtum 5: Der PC

„Es gibt keinen Grund, warum irgendjemand einen Computer in seinem Haus wollen würde.“ Ken Olson, Präsident, Vorsitzender und Gründer von Digital Equipment Corp., 1977

Ken Olson, Gründer der renommierten Computerfirma Digital Equipment, reagierte 1977 mit diesem Zitat auf ein neuartiges Phänomen, das bislang in der Computerbranche unbekannt war: dass Konkurrenzunternehmen erste Bausätze für private Homecomputer auf den Markt brachten. Die Vorstellung eines Home-PC wurde damals von vielen IT-Experten als absurd empfunden. Was sollte ein Privatmensch damit anfangen?

Gerade IT-Firmen wie DEC, die auf Unix-Workstations und Server setzten, hatten mit den aufkommenden Leichtgewichten an PCs Probleme. Sie schätzten deren Potenzial falsch ein – mit fatalen Folgen. Bezeichnenderweise wurde DEC Jahre später ausgerechnet von Compaq geschluckt, einem Unternehmen, das seine Existenz und seinen Erfolg ausschließlich PCs verdankte.

Im Übrigen haben sich auch Vertreter anderer renommierter Unternehmen bei der Prognose des IT-Bedarfs gehörig verschätzt. Arthur D. Little beispielsweise, die bekannteste Technologie-Consulting-Firma der Welt, prognostizierte in den 50er Jahren für IBM den Bedarf an Computern auf 50 Stück – weltweit! Gordon Moore, der Mitgründer von Intel, fragte Mitte der 70er Jahre seine Marketingfachleute, wozu man bitteschön einen Heimcomputer brauchen sollte. Als seine Marketingexperten ihm daraufhin sagten, damit könne die Hausfrau ihre Rezepte verwalten, wurde die Produktidee verworfen.

Irrtum 6: Das papierlose Büro

„Das zeitraubende Hin- und Hergeschiebe von Papier wird im Büro der Zukunft durch Informationsverarbeitung mit Computer ersetzt.“ Prognose des Palo Alto Research Center , 70er Jahre

Auch so ein Mythos, der mit dem Aufkommen der ersten Bürocomputer wieder ausgegraben wurde. Schon in den siebziger Jahren wurde die Digitalisierung der Büroumgebung als Mittel zum Abbau der Papierberge angepriesen. Alle Welt sprach davon, dass dank der technologischen Fortschritte das Papier in Kürze aus den Büros und Amtsstuben verschwunden sei und einer rationelleren Arbeitsweise Platz mache.

Über 30 Jahre später ist das papierlose Büro immer noch in weiter Ferne – schlimmer noch: Wenn man den Statistikern glauben kann, nimmt der Papierverbrauch nicht ab, sondern zu. „Firmen verdoppeln die Anzahl ihrer Dokumente alle zwei Jahre“, so die Beobachtung von Philip Carnelly, Analyst beim britischen Marktforschungshaus Ovum.

Dabei ist das Handling auf ausschließlich elektronischem Wege wesentlich einfacher und umweltschonender. Stimmt schon. Doch andere, gewichtigere Argumente sprechen für Papier. So ist Papier immer noch der günstigste und unkomplizierteste Informations- beziehungsweise. Datenträger. Beispielsweise ist kein Lesegerät erforderlich, das vielleicht nach wenigen Jahren schon wieder veraltet ist. Abgesehen davon, dass Lesen längerer Texte am Bildschirm kein Vergnügen ist – und hinter dem Papierausdruck deutlich hinterherhinkt.

Irrtum 7: MS-DOS

„Bill Gates hat MS-DOS entwickelt“ Verbreitete „Binsenweisheit“

Eine weit verbreitete Falschinformation, die keiner bestimmten Person zugeordnet wird. Wie es zu einem solchen Urteil kommt, ist nicht schwer zu ergründen. MS-DOS ist so eng mit Microsoft verknüpft, dass es für die wenigsten vorstellbar ist, MS-DOS könnte anderen Quellen entstammen.

Doch die Geschichte räumt mit dem Vorurteil auf. Als IBM 1980 mit dem IBM-PC ziemlich verspätet in das Homecomputer-Geschäft einstieg, brauchten die Verantwortlichen möglichst rasch ein Betriebssystem – und wandten sich an Bill Gates’ Firma. Mit einem eigenen System konnte Gates damals zwar nicht dienen, er wollte sich das Geschäft aber auch nicht entgehen lassen.

Kurz entschlossen schloss Microsoft einen Vertrag über 186.000 Dollar mit IBM ab und kaufte zwei Tage später für 50.000 Dollar von der Firma Seattle Computer die CP/M-Variante QDOS – ein Akronym für „quick and dirty operating system“. In leicht modifizierter Form wurde das System dann unter der Bezeichnung MS-DOS an IBM ausgeliefert.

Bei IBM entdeckte man erst nach der Markteinführung, dass man eine CP/M-Variante erworben hatte, und zahlte 800.000 Dollar an Digital Research für einen Verzicht auf rechtliche Schritte gegen IBM. Zur Überraschung aller wurde MS-DOS ein weltweiter Erfolg – obwohl es nicht dem Stand der Technik entsprach. Dafür trägt aber weniger das Betriebssystem Verantwortung als die offene Lizenzpolitik von IBM, die auch Fremdfirmen die Produktion des PC gestattete. Auch das Bedürfnis der Kunden nach der Etablierung eines Standards, den man am ehesten bei IBM, dem damaligen Marktführer bei Großrechnern, erwartete, trug zum Erfolg bei.

Irrtum 8: E-Mail

„E-Mail is a totally unsaleable product.” Ian Sharp, Sharp Associates, 1979

Die Entstehungsgeschichte dieses Zitats liegt völlig im Dunkeln. Es wird jedoch auf einschlägigen Websites immer wieder angeführt, so dass an seiner historischen Existenz wenig Zweifel besteht.

Das Zitat stammt von Ian Sharp, der mit der heutigen, gleichnamigen Firma nichts zu tun hat. Die I.P.Sharp Associates, kurz IPSA, war vielmehr ein kanadisches IT-, Consulting- und Dienstleistungsunternehmen. Bekannt wurde IPSA durch die Programmiersprache APL und IPSANet, ein frühes Packet-Switching-Netzwerk. 1987 wurde IPSA von Reuters geschluckt, das IPSA bis 2005 als Data Warehouse Center für Business-Daten nutzten.

Die Prognose ist jedenfalls eines der gigantischsten Fehlurteile der IT-Geschichte. E-Mails sind aus dem heutigen Freizeit- und Arbeitsalltag nicht mehr wegzudenken. Trotz Spam-Flut und anderen Widrigkeiten ist und bleibt die E-Mail eines der wichtigsten, modernen Kommunikationsmedien.

In den Unternehmen erfreut sich die E-Mail besonderer Beliebtheit, weil sie als wahrer Tausendsassa daherkommt. Nie war es einfacher, billiger und unmittelbarer, Informationen zu teilen, und das über Ländergrenzen hinweg. Folgerichtig glauben 60 Prozent der Unternehmen in Deutschland, dass sich ihre E-Mail-Nutzung in den kommenden zehn Jahren noch verdoppeln wird.

Irrtum 9: OS/2

„OS/2 will be the platform for the 90s.“ Bill Gates, Microsoft, 1989

Welche Hoffnungen steckten nicht alle in OS/2? OS/2 sollte das bessere Windows sein, suggerierte die Werbung. Es wurde in den 80er /90er Jahren von IBM und Microsoft als Nachfolger von DOS und Windows positioniert und von beiden zunächst gemeinsam entwickelt. 1987 kam die Version 1.0 auf den Markt.

Im Vergleich zum damals aktuellen Windows 3.1 waren die Leistungen in der Tat gigantisch. Es bot im Gegensatz zu Windows echtes, pre-emptives Multitasking, konnte in einer Emulation aus MS-DOS und über WinOS/2 auch Windows-3.1-Programme ausführen, unterstützte lange Dateinamen mit bis zu 255 Zeichen und verhinderte mit seinem Speicherschutz, dass eine fehlerhafte Anwendung das gesamte System in Mitleidenschaft zog. Für damalige, an Windows-Standard gewöhnte User waren das technische Highlights.

Das bessere Windows: OS/2 scheiterte an Vermarktungsfehlern von IBM.

Wie konnte ein so innovatives Betriebssystem scheitern? Viele Experten sehen in OS/2 das typische Beispiel, wie ein technisch exzellentes Produkt durch Vermarktungsfehler Schiffbruch erleidet. Vor allem IBM machte sich mit schlechtem, widersprüchlichem Marketing sein eigenes Produkt kaputt. So bewarb IBM OS/2 auf der einen Seite als Lösung für jugendliche Computerfreaks, hatte aber andererseits einen Großteil Firmenkunden, die ganz andere Anforderungen stellten.

Der Versuch, in den Massenmarkt vorzudringen, misslang völlig, zumal es IBM nicht rechtzeitig gelang, Softwarehersteller zu bewegen, für die OS/2-Plattform zu produzieren. Spiele gab es praktisch keine, Büroanwendungen erst sehr spät und lange Zeit mit fehlender Stabilität. Heute ist OS/2 praktisch nicht mehr existent. Der Vertrieb wurde schon 2001 von der Firma Serenity Systems als Lizenzprodukt unter der Bezeichnung eComStation übernommen.

Irrtum 10: Die Strg-Taste

„’Strg’ auf der deutschen PC-Tastatur steht für’String’“ Binsenweisheit deutschsprachiger PC-Nutzer

Zugegeben: Eine große Sache ist der Fauxpas mit der Strg-Taste nicht. Aber ärgerlich. Vor allem, wenn man regelmäßig mit PC-Nutzern zu tun hat – und immer wieder den gleichen Fehler hört.

Seit es die deutsche PC-Tastatur gibt, bezeichnen deutsche Muttersprachler die Strg-Taste rechts unten immer wieder als „String-Taste“ Das kommt wohl daher, dass „Strg“ im englischsprachigen Raum als Abkürzung für den Begriff „string“ verwendet wird, der Zeichenketten bezeichnet.

Das „Strg“ auf der deutschen Computer-Tastatur ist aber schlicht und ergreifend eine Abkürzung für das deutsche Wort „Steuerung“. Das ist vor allem dann einsichtig, wenn man sich die englische Tastatur ansieht. Dort findet sich an der gleichen Stelle ein Ctrl für „Control“ – was übersetzt wiederum „Steuerung“ bedeutet. Die Taste dient bekanntlich dazu, Steuerbefehle für Betriebssysteme und Programme abzuschicken.

Zugegeben: „Strg“ ist vielleicht eine missverständlich gewählte Abkürzung für die Steuerungstaste. Aber welchen Sinn sollte es machen, auf einer deutschen Tastatur die Taste, die für Steuerzeichen zuständig ist, ausgerechnet mit dem englischen Wort für „Zeichenkette“ zu versehen? Nicht sehr logisch. Da könnte man vielleicht auch selber draufkommen, dass es blanker Unsinn ist, von der „String-Taste“ zu sprechen.

Übrigens: Die Taste AltGr steht für „alternative graphic“ und nicht für Altgriechisch. Leute, die diese Irrtümer begehen, sollte man fragen, ob die „Entf“-Taste eine Entfettung des Computers durchführt.

Fazit

Zehn Irrtümer haben wir Ihnen vorgestellt. Nach unserer Meinung die größten, die sich IT-Leute geleistet haben – sieht man vom letzten Beispiel einmal ab. Und ein Ende ist nicht abzusehen.

Warum wird man nicht aus Fehlern klug und prophezeit ständig neue weltbewegende Trends? Vielleicht ist der Wunsch, etwas Kreatives oder Wichtiges über die Zukunft zu sagen, fest in uns eingemeißelt. Und: Zurückhaltung ist nicht die Sache der meisten Manager und Marketingstrategen in Unternehmen.

Statt zuzugeben, dass man nicht weiß, wohin es in den nächsten Jahren geht, werden Dinge an den Haaren herbeigezogen. Vielleicht sollte sich mancher Laien-Zukunftsforscher einen alten Wittgenstein-Spruch auf die Stirn schreiben: „Worüber man nicht sprechen kann, davon soll man schweigen.“ (ala/hal)