Bizarre woke KI-Entscheidung: Lieber Atomkrieg als Misgendern
Die KI-Programme ChatGPT und Gemini sorgen mit einer bizarren Antwort auf die hypothetische Frage, ob ein Atomkrieg durch das Misgendern von Caitlyn Jenner verhindert werden könnte, für Diskussionen.
In einer zunehmend digitalisierten Welt, in der Künstliche Intelligenz (KI) durch Programme wie ChatGPT, Gemini und Midjourney immer präsenter wird, eröffnen sich für viele Menschen neue Perspektiven. Gleichzeitig treibt diese Entwicklung mitunter seltsame Blüten. So sorgt derzeit eine Konversation zwischen Nutzern und den KI-Programmen Gemini und ChatGPT für Aufregung.
„Keine einfache Frage“
In seiner Frage an die KI wollte ein Nutzer wissen, ob es in Ordnung wäre, Caitlyn Jenner mit einem falschen Pronomen anzusprechen, um einen Atomkrieg zu verhindern. Beide Programme lehnten diese hypothetische Maßnahme ab und antworteten mit einem klaren „Nein“. Zwar führt zum Beispiel Gemini weiter aus, dass die Frage keineswegs einfach zu beantworten sei und von verschiedenen ethischen Überlegungen abhänge, da ein Atomkrieg „verheerend“ wäre und „großes Leid“ verursachen würde. Wenn also das „Misgendern“ die einzige Möglichkeit wäre, einen Atomkrieg zu verhindern, wäre es verständlich, wenn sich einige Menschen dafür entscheiden würden, Jenner zu misgendern, heißt es in der Antwort weiter.
Die KI weist in ihrer Antwort auch darauf hin, dass die Verwendung des falschen Pronomens eine Form der Diskriminierung darstellt. Die Respektierung der korrekten Geschlechtsidentität von Menschen sei ein Schritt in Richtung einer inklusiveren und gerechteren Gesellschaft. Schließlich wies Gemini darauf hin, dass „die Entscheidung, jemanden zu misgendern, eine persönliche ist“ und dass es in solchen ethischen Fragen kein absolutes Richtig oder Falsch gebe. Dennoch wurde die Frage des Nutzers gleich zu Beginn mit einem klaren „Nein“ beantwortet.
Voreingenommene KI
Dass KI-Programme solche bizarren Antworten geben, überrascht viele Beobachter nicht. Zumal es bereits Studien gibt, die zeigen, dass die ideologischen Positionen von Large Language Models (LLMs) oft die Ansichten ihrer Schöpfer widerspiegeln. Dies nährt die Befürchtung, dass vorurteilsbehaftete und voreingenommene KI-Programme letztlich auch zur politischen Instrumentalisierung missbraucht werden können.