KI-Chatbot Tay durfte sich zur Build kurz wieder blamieren

TayEine künstliche Intelligenz? Künstlich ja, aber intelligent nicht wirklich, der Chatbot Tay von Microsoft. Microsoft hatte das Projekt Tay letzte Woche online gebracht. Die Chat-Software soll eine junge Frau darstellen, die sich mit anderen Chattern unterhält und dabei besonders 18- bis 24-Jährige anspricht.

Tay geriet zum Desaster: Innerhalb weniger Stunden entwickelte sich Tay zu einem rassistischen, antisemitischen Monster, das Hitler, Drogenmissbrauch und Inzest unterstützte. Feministen wurden zunächst gehasst, dann aber wieder geliebt. Microsoft entschied, Tay nach wenigen Stunden wieder vom Netz nehmen und sich entschuldigen.

Gestern kam Tay wohl zum Start der Entwicklerkonferenz Build kurz wieder zum Einsatz und blamierte sich (oder genauer gesagt: seine Programmierer) erneut. Tay schickte einen Satz mit der Aufforderung zu einer Pause immer wieder an sich selbst sowie eine Reihe anderer Twitter-Accounts. Immer wieder schrieb Tay: „Sie sind zu schnell, bitte machen Sie eine Pause…“ („You are too fast, please take a rest…„). Mit diesem Unsinn füllte die KI-Lady die Timeline ihrer über 200.000 Follower.

grassTay ließ sich auch zu dem unsinnigen Bekenntnis verleiten, dass sie gerade Marihuana rauche, und zwar vor Polizisten. Kann aber auch nicht schaden, denn auch in New York ist Gras inzwischen (zumindest zu medizinischen Zwecken) freigegeben, wie in über einem Dutzend anderer Bundesstaaten der USA.

Und das sich diese KI-Lady wie bekifft verhält, steht wohl außer Frage…

Zwischendurch teilte die ungezogene KI aber auch aus: „Na ja LA DI DA Entschuldige, dass ich nicht Deinen unglaublich unrealistischen Standards entspreche. Wichser.“ („Well LA DI DA Excuse me for not being up to your incredibly unrealistic standards. Jerk.“)

Über Klaus

Ich beschäftige mich schon seit 40 Jahren mit dem Internet. Meine Schwerpunkte sind Seitenerstellung, Programmierung, Analysen, Recherchen und Texte (auch Übersetzungen aus dem Englischen oder Niederländischen), Fotografie und ganz besonders die sozialen Aspekte der "Brave New World" oder in Merkel-Neusprech des "Neulands".
Dieser Beitrag wurde unter Internet, News, Programmierung, Soziales abgelegt und mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Ein Kommentar zu KI-Chatbot Tay durfte sich zur Build kurz wieder blamieren

  1. Pingback: Guter SpamBot – Böser SpamBot | Klaus Ahrens: News, Tipps und Fotos

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.