Letzte Meldung
X

An alle neu registrierten Benutzer!

Wir achten hier auf den Datenschutz. Insbesondere auf die Privatsphäre unserer Mitglieder. Wer sich nur anmeldet, um am "Küchentisch" mitzulesen oder nur Mitgliederlisten einsehen will, wer nur Spam posten möchte und nicht auf meine PNs reagiert, den lösche ich wieder.

RE: Nazi-Sprüche – Microsoft schaltet irren Chat-Bots Tay ab

#1 von Sirius , 29.03.2016 00:33

Nazi-Sprüche – Microsoft schaltet irren Chat-Bots Tay ab

Das ist schnell eskaliert! Microsofts künstliche Intelligenz Tay, die konzipiert wurde, um mit Jugendlichen über Twitter zu chatten, wandelte sich innerhalb von nur 24 Stunden zum Rassisten. Microsoft reagiert und löscht erst Tweets, dann den kompletten Chat-Bot Tay.

Gerade schreiben wir noch neutral informierend über Microsofts Chat-Bot Tay, schon dreht dieser völlig durch. So kann er über @TayandYou direkt angeschrieben werden. Die Antwort folgt prompt. Ziel von Tay soll es sein, das Wesen von Kommunikation besser zu verstehen. Tay bedient sich dabei „relevanter öffentlicher Daten“, wie Microsoft es nennt. Außerdem wurden Stand-Up-Comedians bei der Programmierung zu Hilfe gezogen.

Weiterlesen:

http://de.ubergizmo.com/2016/03/24/nazi-...dbe65ceeae34649


Reset the World!

 
Sirius
Beiträge: 27.113
Registriert am: 02.11.2015


   


  • Ähnliche Themen
    Antworten
    Zugriffe
    Letzter Beitrag
Xobor Ein eigenes Forum erstellen
Datenschutz