Nazi-Sprüche – Microsoft schaltet irren Chat-Bots Tay ab
Das ist schnell eskaliert! Microsofts künstliche Intelligenz Tay, die konzipiert wurde, um mit Jugendlichen über Twitter zu chatten, wandelte sich innerhalb von nur 24 Stunden zum Rassisten. Microsoft reagiert und löscht erst Tweets, dann den kompletten Chat-Bot Tay.
Gerade schreiben wir noch neutral informierend über Microsofts Chat-Bot Tay, schon dreht dieser völlig durch. So kann er über @TayandYou direkt angeschrieben werden. Die Antwort folgt prompt. Ziel von Tay soll es sein, das Wesen von Kommunikation besser zu verstehen. Tay bedient sich dabei „relevanter öffentlicher Daten“, wie Microsoft es nennt. Außerdem wurden Stand-Up-Comedians bei der Programmierung zu Hilfe gezogen.
Weiterlesen:
http://de.ubergizmo.com/2016/03/24/nazi-...dbe65ceeae34649
Reset the World!
Beiträge: | 27.113 |
Registriert am: | 02.11.2015 |
Ein eigenes Forum erstellen |