KI-Bot „Tay“ von Microsoft lernt Rassismus

Microsoft hat eine künstliche Intelligenz mit Namen „Tay“ entwickelt, die automatisiert Twitter-Posts generiert. Allerdings haben Twitter-Nutzer relativ schnell herausgefunden, wie der Algorithmus funktioniert, und Tay Rassismus beigebracht:

„@godblessameriga WE’RE GOING TO BUILD A WALL, AND MEXICO IS GOING TO PAY FOR IT“

Quelle: Microsoft Creates AI Bot – Internet Immediately Turns it Racist

Daraufhin hat Microsoft die Lernkomponente Tays abgeschaltet – „lobotomiert“ (nach fefe). Was war die Konsequenz? Ein User twitterte „feminism is cancer“ an Tay. Tay antwortete: „i love feminism now“.

Großartige Unterhaltung. Ich fürchte nur, das Experiment hält nicht mehr lange an, und es lohnt sich nicht, das Popcorn in die Maschine zu werfen!