Die schlimmsten Bugs der Geschichte

Millennium-Bug: Jahreszahlen laufen Amok

Der wohl bedeutendste und folgenschwerste Bug der Computergeschichte war bislang der Millennium-Fehler oder das Jahr-2000-Problem. Dieses entstand dabei durch die Verwendung eines Datumsformats, das für die Jahreszahl nur zwei Stellen vorsah. Das Jahrhundert wurde dadurch schlicht ignoriert. Die Praxis stammte aus den Anfangszeiten der "EDV" in den 1950er- und 1960er-Jahren, als Speicherplatz teuer war und niemand sich vorstellen konnte, dass die auf den Datensätzen basierenden Programme die Jahrtausendwende erleben würden.
Die Computerpioniere aus der Cobol-Ära trifft aber nur einen Teil der Schuld. Vielmehr "verschleppten" nachfolgende Generationen von Entwicklern das Problem, indem sie ihrerseits Programme schrieben, welche die bestehende zweiziffrige Jahreszahl weiterverwendeten.
Das ging so lange gut, bis Ende der 90er-Jahre der Branche bewusst wurde, dass viele Operationen im Jahr 2000 und danach nicht oder nur fehlerhaft ausgeführt würden. Plötzlich herrschte Panik. Horrorszenarien machten die Runde. Würden am 1. 1. 2000 Bankomaten kein Geld mehr ausgeben, Steuerungen in Zügen und Gleisanlagen versagen, Stromnetze kollabieren, Atomkraftwerke in die Luft fliegen oder gar Nuklearwaffen sich verselbstständigen?
Die Horrorszenarien – selbst wenn vereinzelt übertrieben – führten einerseits zur größten Bug-Fixing-Aktion der Computergeschichte, andererseits zu einem riesigen Neu­anschaffungs-Boom von Programmen und Geräten, die den Millennium-Bug nicht aufwiesen. Die vielen Jahr-2000-Projekte bescherten daher der ICT-Branche fette Jahre. Laut Schätzungen von Gartner wurden weltweit bis zu 600 Milliarden US-Dollar zur Behebung des Fehlers ausgegeben. Der Boom führte in den Folgejahren – verschärft noch durch das Platzen der Internetblase – zu einer mindestens vier Jahre andauernden Rezession in der ICT-Branche.




Das könnte Sie auch interessieren