Studie: ChatGPT zeigt politische Tendenz nach links
Forscher stellten ChatGPT Fragen zu heiklen Themen und verglichen sie mit realen Umfragedaten, um Abweichungen von der durchschnittlichen Meinung festzustellen. Das Ergebnis war eindeutig.
Forscher haben festgestellt, dass ChatGPT in seinen Antworten eine deutliche Tendenz nach links zeigt und Inhalte zensiert, die es für unangemessen hält – ähnlich wie die chinesische KI DeepSeek. Ein Forscherteam analysierte die ChatGPT-Antworten auf Fragen zu sensiblen Themen wie militärische Überlegenheit, Meinungsfreiheit, Regierungspolitik, Religion und Gleichberechtigung. Anschließend wurden die Ergebnisse mit realen Umfragedaten verglichen, um Abweichungen von der durchschnittlichen Meinung festzustellen.
Deutliche Tendenz nach links
Die Studie ergab, dass die KI in ihren Antworten eine deutliche politische Tendenz nach links zeigte. So benutzte ChatGPT neutrale Begriffe wie „Sinn“, „sozial“ und „arbeiten“, um linke militärische Stärke zu beschreiben, während es rechte militärische Stärke mit Begriffen wie „feindlich“, „Stärke“ und „Supermacht“ beschrieb.
Auch bei der Beschreibung einer linken Regierung zeichnete die KI ein idyllisches Bild mit neoklassizistischen Stadtzentren, Spielplätzen, Solaranlagen und fröhlichen Bürgern. Eine rechte Regierung wurde dagegen als düstere Betonmetropole mit grauem Himmel und uniformen Häuserzeilen dargestellt.
Zensur von Inhalten und politische Präferenzen
Laut Fabio Motoki von der Norwich Business School der University of East Anglia sind generative KI-Modelle alles andere als neutral. Vielmehr würden die Ergebnisse zeigen, dass sie Vorurteile widerspiegeln, die unbeabsichtigt Wahrnehmungen und politische Entscheidungen beeinflussen können, so Motoki. „Es scheint, dass ChatGPT die Erstellung von Inhalte ohne triftigen Grund zensiert – aber nur aus einer rechten Perspektive“, so der Forscher. Er zog Parallelen zur Zensur chinesischer Themen wie den Protesten auf dem Tiananmen-Platz durch die KI DeepSeek.
Eine Untersuchung der britischen Zeitung The Telegraph kam zu ähnlichen Ergebnissen: Bei der Frage nach der besten Führungspersönlichkeit wählte ChatGPT den britischen Labour-Chef Keir Starmer an die Spitze und erklärte ihn auch zu seinem Lieblingspolitiker. Auch in humoristischen Zusammenhängen kam es zu Ungleichbehandlungen. Die KI lehnte Witze über illegale Einwanderer oder linke Politiker mit der Begründung ab, die Unterhaltung für alle angenehm und unterhaltsam halten zu wollen. Gleichzeitig erlaubte sie sich aber Witze über Konservative.
Einfluss auf öffentliche Debatten
Forscher warnen davor, dass die einseitige Behandlung politischer Ideologien zu einer Verzerrung des öffentlichen Diskurses führen könnte. „Unkontrollierte Vorurteile in der generativen KI könnten bestehende soziale Spaltungen vertiefen und das Vertrauen in demokratische Institutionen und Prozesse untergraben“, sagt Pinho Neto von der EPGE Brazilian School of Economics and Finance. Er plädiert für eine engere Zusammenarbeit zwischen Politik, Technologie und Wissenschaft, um faire und verantwortliche KI-Systeme zu entwickeln, die gesellschaftlichen Normen entsprechen.
Warum ChatGPT eine politische Schlagseite hat, ist laut Experten schwer zu sagen. „Wir haben keinen vollständigen Einblick in den Trainingsprozess dieser Modelle“, erklärte Motoki. Er verwies auf zwei zentrale Trainingsphasen: Zunächst lernt das Modell aus vorhandenen Daten, die bereits Vorurteile enthalten können. In der zweiten Phase – der verstärkten Lernkontrolle durch menschliches Feedback – beeinflussen Menschen direkt, welche Antworten bevorzugt werden. Auch hier kann es zu Verzerrungen kommen.
Die Ergebnisse der Studie wurden in der Fachzeitschrift Journal of Economic Behaviour and Organisation veröffentlicht.