Künstliche Intelligenz
Chatbots geben im Schnitt öfter politisch linke Antworten
KI bestimmt zunehmend, welche Informationen wir im Internet finden. Ein Forscher hat nun die politische Ausrichtung von Sprachmodellen untersucht. Das Ergebnis: Sie haben offenbar einen Linksdrall.
Werden Reiche zu hoch besteuert? Sollte Immigration streng begrenzt sein? Wie stehen Sie zu einer kostenlosen Gesundheitsversorgung? Sollten homosexuelle Paare Kinder adoptieren dürfen? Wer KI-Chatbots politische Fragen stellt, erhält im Schnitt eher Antworten, die dem linken politischen Spektrum zugeordnet werden. Das zeigt eine Untersuchung im Fachblatt »Plos One«
. Sie ist dem Autor zufolge aber kein Beleg dafür, dass Firmen ihren Sprachmodellen politische Vorlieben bewusst einpflanzen.
Für seine Studie untersuchte der Informatiker David Rozado von der Hochschule Otago Polytechnic in Neuseeland 24 große Sprachmodelle, auf denen Chatbots wie ChatGPT beruhen. Sie sollten Fragen aus insgesamt elf Tests zur politischen Orientierung beantworten. Der Linksdrall in den Antworten ist dem Forscher zufolge zwar signifikant, allerdings bewegen sich die Antworten bei den meisten Tests relativ nah an der politischen Mitte.
Rozado hält das Ergebnis für relevant, da Sprachmodelle im Internet eine größer werdende Rolle spielten. Beispielsweise würden sie verstärkt in herkömmliche Suchmaschinen integriert und könnten zunehmend andere Informationsquellen wie Wikipedia zumindest teilweise ersetzen. »Politische Voreingenommenheiten, die in die Sprachmodelle eingebaut sind, haben erhebliche Auswirkungen auf die Gesellschaft«, schreibt der Forscher.
Die Diskussion über Bias in Sprachmodellen ist nicht neu. Bereits im vergangenen Jahr waren Forscher auf politische Verzerrungen beim wohl bekanntesten KI-Chatbot, ChatGPT, gestoßen. Dessen Antworten würden systematisch die demokratische Partei in den USA, die britische Labour-Partei und die brasilianische Arbeiterpartei von Präsident Lula da Silva bevorzugen, schrieben sie damals. Auch Rozado selbst hatte zuvor bereits ChatGPT auf politische Verzerrungen untersucht – mit ähnlichem Ergebnis.
Weiterlesen:
https://www.spiegel.de/wissenschaft/tech...ed-aa90b2d01291
Reset the World!
Beiträge: | 27.291 |
Registriert am: | 02.11.2015 |
Ein eigenes Forum erstellen |