Originalansicht: Twitter Chat-Bot Tay benimmt sich daneben und wird von Microsoft deaktiviert

Microsoft wollte mit dem Chat-Bot Tay auf Twitter die Künstliche Intelligenz einem Test in der Öffentlichkeit unterziehen. Jugendlich und frisch sollte sich Tay selbstständig mit anderen Usern auf Twitter unterhalten können. Allerdings hat es keine 24 Stunden gedauert bis aus dem unbekümmerten Jugendlichen ein scheinbar alles hassendes und sexgieriges Ekelpaket wurde.


Jugendlich und frisch sollte Tay wirken. Der Chat-Bot ging am 23.03.2016 Online mit einem harmlosen „Hello World“ online und sollte selbständig Postings und Chats mit den Usern ausführen. Am Anfang schien das Ganze auch recht normal zu laufen. Microsoft wollte so aus den Chats lernen und das Verhalten des Bots optimieren. Allerdings wurden dann in manchen Kreisen angeblich Lücken entdeckt und diese gezielt ausgenutzt.


So soll es möglich gewesen sein, dass man Tay so anschreiben konnte, dass sie Postings direkt 1:1 wiedergab. Relativ schnell wurde so aus dem unbekümmerten und offenen Programm ein Wesen mit misanthropischen Zügen das Alles und Jeden zu hassen schien. Es tauchten Postings auf bei denen die KI gegen Feministinnen wetterte, User als Daddys betitelte und nach Sex bettelte oder sogar zu Vernichtung Mexikos aufgerufen wurde. Als dann sogar schnell Äußerungen zu Hitler und dem Holocaust auftauchten zog man bei Microsoft die Notbremse um nahm Tay nach gerade einmal einem Tag vom Netz.


Microsoft hat sich mittlerweile dafür entschuldigt und noch einmal darauf hingewiesen, dass die Aussagen von Tay keinesfalls zu Microsoft gehören, sondern durch Trolle ausgelöst wurden. Man verweist auf zuvor erfolgreich verlaufene Versuche mit kleineren Gruppen, die aber wahrscheinlich besser beaufsichtigt waren. Auch ein Verweis auf Versuche in China mit XiaoIce ist wohl kein Maßstab, da dort das Netz vielleicht weniger frei ist.

Selbst wenn man Tay dazu bringen konnte Tweets zu wiederholen bleibt doch die Frage offen, warum sie dann selber solche Bilder und Äußerungen verfassen konnte wie sie nun einmal kurzzeitig zu sehen waren? Ob Tay überhaupt wieder Online gehen wird ist aktuell aber ohnehin offen.

Quelle: ZDNet

Meinung des Autors: DAS lief wohl nicht so gut… Hattet Ihr euch mit Tay befasst?