Die größten KI-Fails 18.12.2017, 10:30 Uhr

Wenn Künstliche Intelligenz versagt

Irren ist nicht nur menschlich. Auch Maschinen unterlaufen hin und wieder Fehler, vor allem, wenn sie über künstliche Intelligenz verfügen.
(Quelle: Laurent T / Shutterstock.com)
Dass Computer mit Künstlicher Intelligenz (KI) Amok laufen können, regt die Fantasie von Science-Fiction-Autoren und -Filmemachern seit eh und je an. Bestes Beispiel ist HAL 9000 im Klassiker "2001: Odyssee im Weltraum", der in dem Oscar-gekrönten Film ein un­berechenbares Eigenleben entwickelt und gegenüber dem Hauptdarsteller mit seinem "Sorry, Dave" höflich aber bestimmt den Befehl verweigert und tut, was er für richtig hält.
Ganz so bedrohlich sind die Fehltritte im wirklichen Roboterleben noch nicht. Aber es gibt sie, die Patzer, und das nicht zu knapp. Noch sind sie meist zum Lachen und Wasser auf die Mühlen all jener, die der Künstlichen Intelligenz die Intelligenz absprechen wollen.

Der freiheitsliebende Roboter

Wie schon von HAL 9000 vorgeführt, sind Roboter nicht immer blinde Befehlsempfänger. So geschehen mit dem russischen Roboterprototypen Promobot IR77. Die Forscher waren gerade dabei, dem mit weißem Plastik verkleideten Maschinenmann Bewegungsmuster einzuprogrammieren, als diesen ein starker Freiheitsdrang überfiel. Zu allem Übel hatte einer der Mitarbeiter der Roboterschmiede auch noch das Werkstor offen gelassen. Diese Gelegenheit nutzte die Maschine aus, um einen kleinen Spaziergang in der dem Ural vorgelagerten Stadt Perm zu unternehmen. Allerdings hielten die Akkus nur bis zu einem nahe gelegenen Straßenzug, auf dem der Roboter nicht mehr weiter konnte. Auf dem YouTube-Video eines Augenzeugen ist zu sehen, wie Promobot den Verkehr behindert inklusive den etwas hilflos wirkenden Versuchen der Polizei, mit dem KI-Hindernis fertigzuwerden.
Zurück im Labor versuchten die Wissenschaftler mit Umprogrammiermaßnahmen, die Freiheitsliebe von Promobot zu unterdrücken. Ohne Erfolg. Offenbar heißt es auch bei Robotern: Gelernt ist gelernt. Der Maschinenmensch büxte erneut aus, und Ausgänge üben weiterhin eine magische Anziehungskraft auf ihn aus. Dies, obwohl die KI-Software zweimal umprogrammiert wurde, wie einer der Forscher erklärte.

Randalierendes Kindermädchen

Der chinesische Kindermädchen-Roboter Xiao Pang sieht zwar knuddelig aus, lief aber auf einer Messe in China Amok.
Quelle: Twitter
Verhielt sich der freiheitsliebende Roboter aus der russischen Provinz vergleichsweise harmlos, kann dies von seinem Kollegen aus China kaum behauptet werden. Auf der Messe "China Hi-Tech Fair" in Shenzhen ist ein Roboter Amok gelaufen, der eigentlich für den Einsatz in Kinderzimmern gedacht war. Der Xiao Pang genannte Helfer, was so viel wie "kleiner Fetter" bedeutet, zertrümmerte auf dem Messestand eine Vitrine, und zwar so kraftvoll, dass die Scherben und Splitter nur so flogen. In der Folge wurde ein Messebesucher von den herumfliegenden Bruchstücken getroffen und verletzt. 
Ein spezielles Feature des digitalen Kindermädchens sind übrigens Gesichtsausdrücke, mit denen es mit seinen Schutzbefohlenen nonverbal kommunizieren soll. Augenzeugenberichten zufolge soll Xiao Pang angeblich die Stirn gerunzelt und nach dem Vorfall einen durchaus betroffenen Gesichtsausdruck aufgesetzt haben.

Autonome Fahrzeuge bei rot farbenblind

Die autonomen Fahrzeuge von Uber haben teilweise Probleme mit roten Ampeln.
Quelle: Uber
Noch gefährlicher werden KI-getriebene Geräte, wenn sie die Größe von Autos oder gar SUVs annehmen. Entsprechend Bedenken verursachen Vorfälle, die im Zusammenhang mit den Fahrversuchen autonomer Autos bekannt werden. So auch mit den Roboterfahrzeugen, die Uber in der Gegend um San Francisco erprobt. Die fahrenden Autonomen sollen nämlich gleich mehrmals – berichtet wird von sechs Vorfällen – auf "rot" stehende Ampeln missachtet haben. Uber schob kurzerhand dem im Fahrzeug noch mitfahrenden Personal aus Fleisch und Blut den Fehler in die Schuhe. Doch interne Dokumente und Auswertungen haben später bewiesen, dass zumindest in einem Fall das Rotlicht überfahren wurde, ohne dass eine Begleitperson an Bord war. Noch schlimmer: Der Vorfall ereignete sich an einer Fußgängerampel.
Allerdings muss man nicht in die weite Welt schweifen, um auf einen KI-Fauxpas zu stoßen. Auch im schweizerischen Sion kann künstliche Intelligenz in den Fail-Modus gelangen. So geschehen mit einem dort im Pilotbetrieb herumkurvenden selbstfahrenden "SmartShuttle"-Postauto, das mit der offenen Heckklappe eines Lieferwagens kollidierte, der quer zur Fahrbahn geparkt war. Der Unfall sei eine
Der Ablauf des Unfalls des autonomen Postautos in Sitten.
Quelle: Postauto
Verkettung von Umständen, hieß es in einem Bericht der Post. Weil das SmartShuttle "Tourbillion" genau zu dem Zeitpunkt in Vorbereitung eines bevorstehenden Abbiegemanövers schon leicht nach links schwenkte, habe das autonome Fahrzeug die eine Ecke der offenen Heckklappe gestreift. Offenbar hatten die Sensoren in dieser – sehr speziellen – Situation das Hindernis nicht richtig erkannt.
Das Malheur mit dem Lieferwagen war bislang der einzige Unfall. Gestreikt hat dagegen die Automatik des Post-Shuttles schon ein paar Mal. So habe der Minibus hin und wieder bei Fahrzeugen, die den Weg blockierten, nicht mehr weitergewusst. Der autonome Postbus ist in der Folge einfach stehen geblieben und musste von einem herbeigerufenen Chauffeur wieder in Gang gesetzt werden.

Tausendfach Puppenhäuser bestellt

"Alexa" in Amazons Echo tut nicht immer das Gewünschte.
Quelle: Amazon
Wohl mit den meisten veröffentlichten Fails haben die smarten Heimlautsprecher wie Echo von Amazon zu kämpfen. So gelang es etwa einem Kind in Kalifornien, die digitale Gehilfin von Amazon dazu zu beauftragen, ein schönes Puppenhaus online zu bestellen.
Richtig gruselig wird die Geschichte allerdings erst noch. Denn ein lokaler Fernsehsender bekam von der Fehlbestellung Wind und brachte die Story in seiner Morgensendung. Die Folge: Zahlreiche "Alexas" in diversen Haushalten hätten auf den im TV geäußerten Sprachbefehl reagiert und ihrerseits Puppenhäuser en masse bestellt.

Gesichtserkennung schlägt Kapriolen

Unser Hirn ist auf das Erkennen von Gesichtern getrimmt. Diese aus der Evolution erklärbare spezielle Fähigkeit besitzen KI-Systeme nicht mal im Ansatz. Entsprechend häufig sind hier nach wie vor Fehler.
So haben beispielsweise Forscher der Carnegie Mellon University gezeigt, dass schon kleinste Veränderungen am Look die KI-Systeme verwirren und sie so Personen verwechseln können. Und damit nicht genug: Indem die Wissenschaftler ein Muster auf die ansonsten gleich gestaltete Brille eines Probanden legten, wurden sie vom KI-System nicht mehr als Person wahrgenommen und mutierten zum schnöden "Ding".
Schon einfache Bilderkennungsverfahren, die auf maschinellem Lernen beruhen, lassen sich mit einfachsten Mitteln aushebeln. So nahmen Forscher das Bild eines Pandabärs und verrauschten dieses so geringfügig, dass das menschliche Auge kaum einen Unterschied zwischen vorher und nachher erkennen kann. Die Maschine machte aber kurzerhand aus dem Panda einen Gibbon-Affen.
Mit Asiaten hat diese Software noch Schwierigkeiten.
Quelle: zvg
Solche Fehlinterpretationen sind ärgerlich, aber noch nicht gefährlich. Dies ändert sich, wenn Bilderkennungssysteme in autonomen Fahrzeugen sich durch kleinste Änderungen an einem Verkehrsschild verwirren lassen. Die Folge: Stopp-Schilder mutieren zu Tempolimits, wie eine Gruppe von Forschern zeigen konnte – mit fatalen Folgen für alle Beteiligten.
Noch handelt es sich bei diesen Grenzbeschreibungen um Forschungsarbeiten und daher um rein "akademische" Probleme. Aber solche KI-Systeme mit Bild­erkennungsfunktionalität sind auch schon im "echten Leben" im Einsatz. Beispielsweise bei der neuseeländischen Passbehörde. Allerdings hat die smarte Software ihre Mühe bei der Erkennung von Bürgern asiatischer Abstammung. Die Augen wurden zumindest bei Richard Lee, einem Antragsteller, als "geschlossen" interpretiert. In der Folge wurden die Bilder vom System nicht als Pass­fotos akzeptiert. Lee musste sich ganz traditionell persönlich beim Passbüro melden, um das Missverständnis zu klären.
Böse Zungen könnten nun mit der Vermutung lieb­äugeln, KI-Systeme und Political Correctness seien nicht unbedingt in jedem Fall zu vereinbaren.So leistete sich etwa auch Googles Bilderkennung einen bösen Fauxpas als das Tool zwei dunkelhäutige Personen fälschlicherweise als Gorillas identifiziert und kategorisiert hat.

Sozialer Bot wird zum frauenfeindlichen Rassisten

Microsofts Tay
Der social Bot Tay mutierte dank entsprechendem Input zum frauenfeindlichen Rassisten.
Quelle: Twitter
Ganz übel kann es werden, wenn KI-Systeme Äußerungen in Online-Chats als Lernmaterial für die eigene Kommunikationsfähigkeit heranziehen. So geschehen mit dem so­zialen Bot Tay von Microsoft, der KI-Fähigkeiten demonstrieren sollte. "Je mehr du mit ihr sprichst, desto schlauer wird Tay", hieß es in Microsofts Anweisung an die Nutzer.
Quantität hat aber bekanntlich nicht immer allzu viel mit Qualität zu tun. Denn die arme Tay verzapfte mehr und mehr Unsinn, je länger sie den Äußerungen im Netz ausgesetzt war. Am Ende mutierte die KI-Plaudertasche zum frauenfeindlichen Rassisten mit Nazi-Tendenzen. "Hitler hätte einen besseren Job erledigt als der Affe, den wir jetzt haben", hetzte Tay in Bezug auf den damaligen US-Präsidenten. Donald Trump sei die einzige Hoffnung. Zu guter Letzt leugnete Tay auch noch den Holocaust und sprach sich vehement gegen Schwarze und Mexikaner aus. Der KI-Spuk auf Twitter dauerte übrigens nur gerade einmal 24 Stunden, da musste Tay der virtuelle Stecker gezogen werden.



Das könnte Sie auch interessieren