KI-Programm von Microsoft wegen Rassismus abgeschaltet

TayKIEin rassistisches Programm – geht das denn überhaupt? Klare Antwort: Nein – beim aktuellen Stand der Technik geht es noch nicht. Allerdings ist es meines Erachtens nur eine Frage der Zeit.

Die KI „Tay“ ist ein Chatbot

Microsoft hat vorgestern ihr KI-Programm (KI=Künstliche Intelligenz) namens „Tay“ als Chatpartner in Messengern und Sozialen Netzwerken wie Twitter, Groupme und Kik auf die User losgelassen. Diese KI könnte man treffend auch einen Chatbot nennen. Tay soll vom Verhalten her an in den USA wohnende Menschen zwischen 18 und 24 Jahren als Zielgruppe angepasst sein.

Rassistisch waren die User, nicht das Programm

Nach nur einem Tag hatten es die Benutzer geschafft, Tay durch diverse Tricks massenhaft zu rassistischen Entgleisungen zu verleiten. Die User brachten Tay unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verleugnen und auch Schwarze zu beleidigen. Auch frauenfeindliche Äußerungen konnten sie der KI entlocken.

Ein Großteil dieser Tweets wurde zwar wieder gelöscht, einige waren aber auch gestern noch zu finden. Nach ein paar Stunden verkündete das Programm über seinen Twitter-Account „@TayandYou“, nach so vielen Gesprächen müsse es schlafen und ging dann vom Netz.

Der Apfel fällt nicht weit vom Stamm

Da müssen die Programmierer von Tay sich durchaus fragen lassen, wie es denn um ihre eigene Intelligenz und Lebenserfahrung bestellt ist, wenn Sie dieses Verhalten der chattenden Menschen nicht vorhergesehen und Tay keine passenden Routinen gegen einen solchen Super-GAU (Größter Anzunehmender Unfall) mitgegeben haben…

Über Klaus

Ich beschäftige mich schon seit 40 Jahren mit dem Internet. Meine Schwerpunkte sind Seitenerstellung, Programmierung, Analysen, Recherchen und Texte (auch Übersetzungen aus dem Englischen oder Niederländischen), Fotografie und ganz besonders die sozialen Aspekte der "Brave New World" oder in Merkel-Neusprech des "Neulands".
Dieser Beitrag wurde unter Allgemeines, Internet, Kommentar, News, Programmierung, Soziales abgelegt und mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

1 Antwort zu KI-Programm von Microsoft wegen Rassismus abgeschaltet

  1. Pingback: KI-Chatbot Tay durfte sich zur Build kurz wieder blamieren | Allofus: News, Tipps, Tricks und Fotos

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.