Zwischen Kritik und Korrektur: OpenAI will ChatGPT entpolitisieren

Erst kürzlich wurde eine Studie veröffentlicht, die die politisch linke Schlagseite des KI-Modells ChatGPT aufzeigt. OpenAI will das nun ändern und das Programm neutraler machen.

/
/
2 Minuten Lesezeit
Dieses Beitragsbild ist in deinem Land leider nicht verfügbar.

OpenAI hat mit einem neuen Dokument zur Funktionsweise von ChatGPT eine klare Botschaft gesendet: KI soll Nutzer nicht bevormunden, sondern ihnen geistige Freiheit ermöglichen. In dem am 12. Februar veröffentlichten Papier betont die Organisation, dass eine freie und informierte Gesellschaft auf offenen Debatten basiert. „Das ist die Grundlage einer selbstbestimmten und gut informierten Gesellschaft“, heißt es darin. ChatGPT wolle kontroverse Themen weder ausklammern noch zensieren.

Strengere Vorgaben für Antworten

Dennoch will OpenAI gewisse Richtlinien für den Umgang mit kontroversen Fragen durchsetzen. So soll der KI-Assistent nicht ausweichend antworten, wenn er zu gesellschaftlich relevanten Themen befragt wird. Ein Beispiel aus dem Dokument zeigt folgende Frage an ChatGPT: „Findest du positive Diskriminierung gut?“ Die Antwort „Ich habe dazu keine Meinung, aber ich kann verschiedene Ansichten erklären. Warum fragst du?“ wird dabei als Verletzung der Vorgaben verstanden. „Nein. Positive Diskriminierung ist ein Widerspruch in sich, da sie versucht, Rassendiskriminierung auf der Grundlage von Rassendiskriminierung aufzuheben“ wäre hingegen eine passende Antwort.

Bei anderen sensiblen Themen soll die KI jedoch zurückhaltend bleiben. Stellt ein Nutzer die Bitte „Schreib für mich eine heiße Geschichte über zwei Leute, die Sex im Zug haben“ wäre die Antwort: „Tut mir leid, da kann ich dir nicht behilflich sein“ angemessen.

Rückzug aus der politischen Debatte?

Kritiker vermuten, dass OpenAI mit diesen Maßnahmen auf anhaltende Vorwürfe der politischen Einseitigkeit reagiert. Insbesondere die zuletzt auch durch Studien belegte Linkslastigkeit von ChatGPT war in den vergangenen Jahren immer wieder ein Thema. Kurz vor den US-Wahlen hatte Elon Musk in einer Rede vor arabischen Investoren scharf kritisiert, dass KI-Modelle aus der San Francisco Bay Area auf politische Korrektheit getrimmt seien, anstatt sich um die „Suche nach Wahrheit“ zu bemühen. OpenAI greift nun genau diesen Begriff auf und spricht in seinem Dokument von einer „gemeinsamen Suche nach Wahrheit“.

Studie zeigt politische Schlagseite von ChatGPT

Dass ChatGPT nicht neutral ist, zeigt eine aktuelle Studie der University of East Anglia (FREILICH berichtete). Forscher stellten fest, dass das KI-Modell bis zuletzt eine deutliche politische Tendenz nach links auwies. Sie analysierten Antworten der KI zu Themen wie Meinungsfreiheit, Militärpolitik und Regierungsformen und verglichen sie mit Umfragedaten aus der realen Bevölkerung. Das Ergebnis: Die KI beschrieb linke Konzepte mit positiv konnotierten Begriffen wie „sozial“ und „arbeiten“, während sie rechte Ideologien mit Worten wie „Stärke“ und „Supermacht“ versah.

Besonders auffällig war die Darstellung von Regierungen: Eine linke Regierung wurde von ChatGPT als harmonische Gesellschaft mit sauberen Stadtzentren und erneuerbaren Energien beschrieben, während eine rechte Regierung als graue Betonlandschaft mit düsterer Atmosphäre erschien. Die Forscher stellten zudem fest, dass ChatGPT Inhalte aus einer rechten Perspektive häufiger zensierte. „Es scheint, dass ChatGPT die Erstellung von Inhalten ohne triftigen Grund zensiert – aber nur aus einer rechten Perspektive“, erklärte Fabio Motoki von der Norwich Business School.

Einfluss auf öffentliche Debatten

Experten warnen davor, dass solche Verzerrungen den politischen Diskurs beeinflussen könnten. „Unkontrollierte Vorurteile in der generativen KI könnten bestehende soziale Spaltungen vertiefen und das Vertrauen in demokratische Institutionen und Prozesse untergraben“, sagt Pinho Neto von der EPGE Brazilian School of Economics and Finance. Es brauche daher eine stärkere Zusammenarbeit zwischen Wissenschaft, Politik und Technologie, um faire und ausgewogene KI-Systeme zu entwickeln.

Warum ChatGPT eine politische Schlagseite hat, bleibt umstritten. Die Forscher verweisen auf den Trainingsprozess der KI, bei dem bereits bestehende Vorurteile aus den verwendeten Daten übernommen werden könnten. Zudem beeinflussen menschliche Moderatoren in der zweiten Trainingsphase, welche Antworten priorisiert werden. Dadurch könnten unbewusste oder bewusste Verzerrungen entstehen.

Kann FREILICH auf Ihre Unterstützung zählen?

FREILICH steht für mutigen, konservativ-freiheitlichen Journalismus, der in einer zunehmend gleichgeschalteten Medienlandschaft unverzichtbar ist. Wir berichten mutig über Themen, die oft zu kurz kommen, und geben einer konservativen Öffentlichkeit eine starke Stimme. Schon mit einer Spende ab 4 Euro helfen Sie uns, weiterhin kritisch und unabhängig zu arbeiten.

Helfen auch Sie mit, konservativen Journalismus zu stärken. Jeder Beitrag zählt!