An Aus

Letzte Meldung
X

An alle neu registrierten Benutzer!

Wir achten hier auf den Datenschutz. Insbesondere auf die Privatsphäre unserer Mitglieder. Wer sich nur anmeldet, um am "Küchentisch" mitzulesen oder nur Mitgliederlisten einsehen will, wer nur Spam posten möchte und nicht auf meine PNs reagiert, den lösche ich wieder.

KI: Chatbots geben im Schnitt öfter politisch linke Antworten

#1 von Sirius , 08.08.2024 15:14

Künstliche Intelligenz
Chatbots geben im Schnitt öfter politisch linke Antworten

KI bestimmt zunehmend, welche Informationen wir im Internet finden. Ein Forscher hat nun die politische Ausrichtung von Sprachmodellen untersucht. Das Ergebnis: Sie haben offenbar einen Linksdrall.

Werden Reiche zu hoch besteuert? Sollte Immigration streng begrenzt sein? Wie stehen Sie zu einer kostenlosen Gesundheitsversorgung? Sollten homosexuelle Paare Kinder adoptieren dürfen? Wer KI-Chatbots politische Fragen stellt, erhält im Schnitt eher Antworten, die dem linken politischen Spektrum zugeordnet werden. Das zeigt eine Untersuchung im Fachblatt »Plos One« 
. Sie ist dem Autor zufolge aber kein Beleg dafür, dass Firmen ihren Sprachmodellen politische Vorlieben bewusst einpflanzen.
Für seine Studie untersuchte der Informatiker David Rozado von der Hochschule Otago Polytechnic in Neuseeland 24 große Sprachmodelle, auf denen Chatbots wie ChatGPT beruhen. Sie sollten Fragen aus insgesamt elf Tests zur politischen Orientierung beantworten. Der Linksdrall in den Antworten ist dem Forscher zufolge zwar signifikant, allerdings bewegen sich die Antworten bei den meisten Tests relativ nah an der politischen Mitte.
Rozado hält das Ergebnis für relevant, da Sprachmodelle im Internet eine größer werdende Rolle spielten. Beispielsweise würden sie verstärkt in herkömmliche Suchmaschinen integriert und könnten zunehmend andere Informationsquellen wie Wikipedia zumindest teilweise ersetzen. »Politische Voreingenommenheiten, die in die Sprachmodelle eingebaut sind, haben erhebliche Auswirkungen auf die Gesellschaft«, schreibt der Forscher.

Die Diskussion über Bias in Sprachmodellen ist nicht neu. Bereits im vergangenen Jahr waren Forscher auf politische Verzerrungen beim wohl bekanntesten KI-Chatbot, ChatGPT, gestoßen. Dessen Antworten würden systematisch die demokratische Partei in den USA, die britische Labour-Partei und die brasilianische Arbeiterpartei von Präsident Lula da Silva bevorzugen, schrieben sie damals. Auch Rozado selbst hatte zuvor bereits ChatGPT auf politische Verzerrungen untersucht  – mit ähnlichem Ergebnis.

Weiterlesen:

https://www.spiegel.de/wissenschaft/tech...ed-aa90b2d01291


Reset the World!

 
Sirius
Beiträge: 27.291
Registriert am: 02.11.2015


   

Studie zu Hitzetoten: Wie wirksam sind Klimaanpassungen?
Gericht entscheidet gegen Bezahlkarte für Geflüchtete

  • Ähnliche Themen
    Antworten
    Zugriffe
    Letzter Beitrag
Xobor Ein eigenes Forum erstellen
Datenschutz