Programmierfehler 20.02.2018, 13:59 Uhr

Das sind die schlimmsten Bugs der Geschichte

Programmierfehler, sogenannte Software Bugs, sind fester Bestandteil der Computergeschichte. Einige von ihnen sind legendär. Wir präsentieren die vier gröbsten Schnitzer.
(Quelle: shutterstock.com/pixeldreams.eu )
Auch Programmierer sind vor Fehlern nicht gefeit. Schließlich sind sie nur Menschen und diese können nun mal irren. Ein Programm ohne Bug und ohne nachträgliche Fehlerbehebung ist nicht leicht zu finden. Zum Glück verursachen Software-Fehler meistens ja nur Unannehmlichkeiten. Und oft findet der gewiefte Anwender sogar einen Workaround. Doch Bugs können auch gewaltige Schäden verursachen, Panik verbreiten oder sonst wie spektakuläre Auswirkungen haben. Wir haben ein paar der gröbsten Programmierschnitzer der Computer­geschichte zusammengetragen.

Therac-25: Wenn Bugs töten

Von Harmlosigkeit kann bei den Therac-25-Vorfällen zwischen 1985 und 1987 kaum die Rede sein. Vielmehr führte hier ein Programmierfehler zum Tod von drei Menschen und zu schwerwiegenden Schädigungen bei drei weiteren Personen. Beim Therac-25 handelte es sich um einen Teilchenbeschleuniger, welcher der Strahlentherapie bei Krebs­patienten diente. Das Gerät wurde von der kanadischen Firma Atomic Energy of Canada Limited (AECL) hergestellt und in nordamerikanische Krankenhäuser geliefert.
Eine Kombination aus Software-Fehlern und mangelnder Qualitätskontrolle endete fatal. So schrieb ein einziger Programmierer den Code für das Gerät basierend auf den Programmen, die in Vorgängermodellen verwendet wurden. Er ging davon aus, dass Software nicht "altern" könne. Tatsächlich führte das überarbeitete Betriebsprogramm dazu, dass die Strahlendosen des Therac-25 zu hoch waren und bei den sechs aktenkundigen Patienten zu schweren Schäden führte, die bei dreien tödlich endeten.

Millennium-Bug: Jahreszahlen laufen amok

Der wohl bedeutendste und folgenschwerste Bug der Computergeschichte war bislang der Millennium-Fehler oder das Jahr-2000-Problem. Dieses entstand dabei durch die Verwendung eines Datumsformats, das für die Jahreszahl nur zwei Stellen vorsah. Das Jahrhundert wurde dadurch schlicht ignoriert. Die Praxis stammte aus den Anfangszeiten der "EDV" in den 1950er- und 1960er-Jahren, als Speicherplatz teuer war und niemand sich vorstellen konnte, dass die auf den Datensätzen basierenden Programme die Jahrtausendwende erleben würden.
Die Computerpioniere aus der Cobol-Ära trifft aber nur einen Teil der Schuld. Vielmehr "verschleppten" nachfolgende Generationen von Entwicklern das Problem, indem sie ihrerseits Programme schrieben, welche die bestehende zweiziffrige Jahreszahl weiterverwendeten.
Das ging so lange gut, bis Ende der 1990er-Jahre der Branche bewusst wurde, dass viele Operationen im Jahr 2000 und danach nicht oder nur fehlerhaft ausgeführt würden. Plötzlich herrschte Panik. Horrorszenarien machten die Runde. Würden am 1.1.2000 Bankomaten kein Geld mehr ausgeben, Steuerungen in Zügen und Gleisanlagen versagen, Stromnetze kollabieren, Atomkraftwerke in die Luft fliegen oder gar Nuklearwaffen sich verselbstständigen?
Die Horrorszenarien - selbst wenn vereinzelt übertrieben - führten einerseits zur größten Bug-Fixing-Aktion der Computergeschichte, andererseits zu einem riesigen Neu­anschaffungs-Boom von Programmen und Geräten, die den Millennium-Bug nicht aufwiesen. Die vielen Jahr-2000-Projekte bescherten daher der ICT-Branche fette Jahre. Laut Schätzungen von Gartner wurden weltweit bis zu 600 Milliarden US-Dollar zur Behebung des Fehlers ausgegeben. Der Boom führte in den Folgejahren - verschärft noch durch das Platzen der Internetblase - zu einer mindestens vier Jahre andauernden Rezession in der ICT-Branche.



Das könnte Sie auch interessieren