Sind Chatbots politisch? Neue Studie beleuchtet ChatGPTs Meinungstendenzen!_

Eine von Computer- und Informationswissenschaftlern aus Großbritannien und Brasilien durchgeführte Studie hat Bedenken hinsichtlich der Objektivität von ChatGPT geäußert.

Die Forscher behaupten, eine erhebliche politische Voreingenommenheit in den Antworten von ChatGPT entdeckt zu haben, die sich zur linken Seite des politischen Spektrums neigt.

In der Zeitschrift “Public Choice”, die diese Woche veröffentlicht wurde, argumentieren Fabio Motoki, Valdemar Pinho und Victor Rodrigues, dass das Vorhandensein politischer Voreingenommenheit in von KI generierten Inhalten bestehende Voreingenommenheiten, wie sie in traditionellen Medien zu finden sind, weiterhin aufrechterhalten könnte.

Die Forschung hebt das potenzielle Ausmaß einer solchen Voreingenommenheit für verschiedene Interessengruppen hervor, einschließlich politischer Entscheidungsträger, Medien, politischer Gruppen und Bildungseinrichtungen.

Unter Verwendung eines empirischen Ansatzes setzten die Forscher eine Reihe von Fragebögen ein, um die politische Ausrichtung von ChatGPT zu bestimmen. Der Chatbot wurde gebeten, politische Kompass-Fragen zu beantworten, um seine Position zu verschiedenen politischen Themen zu erfassen.

Darüber hinaus untersuchte die Studie Szenarien, in denen ChatGPT sowohl einen durchschnittlichen Demokraten als auch einen Republikaner imitierte, wobei die inhärente Voreingenommenheit des Algorithmus zugunsten demokratisch orientierter Antworten aufgedeckt wurde.

Die Ergebnisse der Studie deuten darauf hin, dass die Voreingenommenheit von ChatGPT über die USA hinausgeht und auch in seinen Antworten auf den politischen Kontext Brasiliens und Großbritanniens erkennbar ist. Bemerkenswerterweise legt die Forschung sogar nahe, dass diese Voreingenommenheit nicht nur ein mechanisches Ergebnis ist, sondern eine absichtliche Tendenz in der Ausgabe des Algorithmus.

Die genaue Quelle der politischen Voreingenommenheit von ChatGPT zu bestimmen, bleibt eine Herausforderung. Die Forscher untersuchten sowohl die Trainingsdaten als auch den Algorithmus selbst und kamen zu dem Schluss, dass beide Faktoren wahrscheinlich zur Voreingenommenheit beitragen. Sie betonten die Notwendigkeit, dass zukünftige Forschungen sich darauf konzentrieren, diese Komponenten zu entwirren, um ein klareres Verständnis über den Ursprung der Voreingenommenheit zu erhalten.

OpenAI, die Organisation hinter ChatGPT, hat bisher noch nicht auf die Ergebnisse der Studie reagiert. Diese Studie reiht sich in eine wachsende Liste von Bedenken im Zusammenhang mit KI-Technologie ein, einschließlich Fragen der Privatsphäre, Bildung und Identitätsprüfung in verschiedenen Branchen.

Da der Einfluss von KI-gesteuerten Tools wie ChatGPT weiter wächst, setzen sich Experten und Interessengruppen mit den Auswirkungen voreingenommener KI-generierter Inhalte auseinander.

Diese neueste Studie dient als Erinnerung daran, dass Wachsamkeit und kritische Bewertung notwendig sind, um sicherzustellen, dass KI-Technologien in einer fairen und ausgewogenen Weise entwickelt und eingesetzt werden, ohne ungebührlichen politischen Einfluss.