Wenn Künstliche Intelligenz versagt

Sozialer Bot wird zum frauenfeindlichen Rassisten

Microsofts Tay
Der social Bot Tay mutierte dank entsprechendem Input zum frauenfeindlichen Rassisten.
Quelle: Twitter
Ganz übel kann es werden, wenn KI-Systeme Äußerungen in Online-Chats als Lernmaterial für die eigene Kommunikationsfähigkeit heranziehen. So geschehen mit dem so­zialen Bot Tay von Microsoft, der KI-Fähigkeiten demonstrieren sollte. "Je mehr du mit ihr sprichst, desto schlauer wird Tay", hieß es in Microsofts Anweisung an die Nutzer.
Quantität hat aber bekanntlich nicht immer allzu viel mit Qualität zu tun. Denn die arme Tay verzapfte mehr und mehr Unsinn, je länger sie den Äußerungen im Netz ausgesetzt war. Am Ende mutierte die KI-Plaudertasche zum frauenfeindlichen Rassisten mit Nazi-Tendenzen. "Hitler hätte einen besseren Job erledigt als der Affe, den wir jetzt haben", hetzte Tay in Bezug auf den damaligen US-Präsidenten. Donald Trump sei die einzige Hoffnung. Zu guter Letzt leugnete Tay auch noch den Holocaust und sprach sich vehement gegen Schwarze und Mexikaner aus. Der KI-Spuk auf Twitter dauerte übrigens nur gerade einmal 24 Stunden, da musste Tay der virtuelle Stecker gezogen werden.



Das könnte Sie auch interessieren