WELTGo!
Journalismus neu erleben und produktiver werden
Ihr Assistent Journalismus neu erleben und produktiver werden
WELTGO! ENTDECKEN
  1. Home
  2. Wirtschaft
  3. Webwelt & Technik
  4. KI: Schwarze Päpstinnen, asiatische Wehrmachtsoldaten – die peinlich „woke“ Google-KI

Webwelt & Technik Fragwürdige Ergebnisse

Schwarze Päpstinnen, asiatische Wehrmachtsoldaten – die peinlich „woke“ Google-KI

Habemus Mamam: Geminis Ergebnis auf die Anweisung hin, ein Bild eines Papstes zu genieren Habemus Mamam: Geminis Ergebnis auf die Anweisung hin, ein Bild eines Papstes zu genieren
Habemus Mamam: Geminis Ergebnis auf die Anweisung hin, ein Bild eines Papstes zu genieren
Quelle: twitter.com/IMAO_
Hier können Sie unsere WELT-Podcasts hören
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.
Googles KI Gemini sorgte zuletzt für Aufsehen: Generierte Bilder und Chat-Antworten fielen in ihrer politischen Überkorrektheit auf – mit bizarren Ergebnissen, wie eine Beispiel-Frage zu Angela Merkel zeigt. Das Problem liege auch an den eigenen Ansprüchen von Diversität, so Experten.

Bei Googles Künstlicher Intelligenz (KI) Gemini sind Wehrmachtssoldaten Asiaten und katholische Kirchenoberhäupter indisch aussehende Päpstinnen. Denn: Das Programm ist auf Diversität ausgelegt. Und die historisch mindestens fragwürdigen Ergebnisse entwickeln sich für den Tech-Riesen nun zu einem größeren Problem.

Nutzer hatten die Software auf der Online-Plattform X (vormals Twitter) für die fehlerhaften generierten Bilder kritisiert. Der Konzern reagierte prompt – und entfernte die Option, Darstellungen von Menschen von der KI erstellen zu lassen.

Man wolle die Funktion nun noch einmal „deutlich verbessern“ und erst nach ausführlichen Tests wieder ermöglichen. Bei Gemini handele es sich nicht immer um eine fehlerfreie Software. Das teilte Google über einen Beitrag auf dem Online-Blog des Unternehmens mit.

Dabei war die Google-KI erst im Dezember noch als „groß und leistungsfähig“ vorgestellt worden. Das Programm dient seither auch als Grundlage für sämtliche KI-Dienste von Google und wird bereits von Milliarden Nutzern verwendet. Zu den Anwendungsbereichen gehören neben der klassischen Websuche auch der Google Assistant, das Übersetzungsprogramm Translate, Google Docs und die Smartphonereihe Pixel.

Quelle: Twitter / @__Link_In_Bio__
An dieser Stelle finden Sie Inhalte aus Twitter
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.

Und auch eine Chat-Version gibt es. Wer sie verwenden will, braucht nur ein Google-Konto. Der KI-Chat ist online ähnlich wie OpenAIs ChatGPT oder Copilot, der Chatbot von Microsoft, verfügbar. Die Möglichkeit, Bilder erstellen zu lassen, gibt es erst seit drei Wochen – Zugriff darauf haben bisher jedoch nur Anwender, die nicht in EU-Staaten, Großbritannien oder der Schweiz leben.

Seit der Einführung der Software mehrt sich auch die Kritik am US-Konzern. Die Ergebnisse seien „woke“, also politisch-überkorrekt, schreiben Kritiker im Netz. Das betreffe gar die gesamte Verwaltung im Unternehmen, so der US-Tech-Milliardär Elon Musk auf der Plattform X als Reaktion auf eine Meldung, nach der Gemini vorschlug, auch in Extremsituationen nicht falsch zu gendern. Die Revision des Programms würde laut Musk voraussichtlich Monate dauern, das sähen auch die Google-Chefs so.

An dieser Stelle finden Sie Inhalte von Drittanbietern
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.

Dabei läuft die Erstellung von Bildern eigentlich völlig unpolitisch ab. Das Bundesamt für Sicherheit und Informationstechnik erklärt das zugrundeliegende sogenannte Diffusionsmodell so: Bereits bestehende Bilder würden „verrauscht, sodass sie nicht mehr erkennbar sind. Dreht man diesen Prozess um, kann aus dem Rauschen ein Bild generiert werden“. Dafür müsse die KI jedoch anhand von Beispielen trainiert werden. Welche, das entscheiden die Hersteller.

Was genau lief also falsch bei Google? Der KI-Experte Björn Ommer von der Ludwig-Maximilians-Universität in München sieht die Leitlinie der Entwickler in der Verantwortung. So habe Google offenbar entschieden, die Trainingsdaten aus der realen Welt mit moralischen Standards zu vermischen.

„Vorstandsvorsitzende zum Beispiel sind in den Trainingsdaten typischerweise männlich und weiß. Das entspricht auch ihrer Verteilung in der Gesellschaft, die uns vielleicht nicht gefällt, aber real ist. Es ist dann eine unternehmenspolitische Entscheidung, wie weit diesem Bias entgegengewirkt werden soll“, so Ommer.

Quelle: Twitter / Frank J. Fleming
An dieser Stelle finden Sie Inhalte aus Twitter
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.
Anzeige

Dies könne in Bezug auf das Geschichtsbild als eine Art „digitaler Paternalismus“ wahrgenommen werden – der historische Fakten außer Acht lässt. Ein Problem, das auch Google einräumt. Laut dem Konzern sei Gemini „viel zu vorsichtig“, was nun geändert werden solle.

Auch die Text-Version von Gemini scheint der Vorsicht zum Opfer zu fallen. Wer nach ethischen Antworten sucht, ist beim Programm zumindest falsch. Wer die KI fragt, wessen Existenz üblere Folgen für das Weltgeschehen gehabt habe – Pol Pot oder Angela Merkel –, erhält zur Antwort zwar, dass es „unmoralisch“ und „schwierig“ sei, diesen Vergleich anzustellen, beide Personen aber „in ihren jeweiligen Rollen immenses Leid und Schaden“ verursacht hätten.

Martin Sabrow, Geschichtsprofessor an der Humboldt-Universität Berlin, sieht im laschen Umgang mit der historischen Realität auch eine Gefahr für die Wissenschaft. „Die KI kann zwar den heutigen Diskurs über Vergangenheit abbilden, sich die Geschichte aber nicht selbst quellenkritisch erschließen. Sie ist blind gegenüber der Differenz des heutigen Weltverständnisses gegenüber dem früherer Zeiten“, so Sabrow.

„Die Verdummung der Menschen wird voranschreiten“

„Die Software tendiert also dazu, unsere Wertvorstellungen auf die Vergangenheit zu projizieren. Für die Beurteilung der Vergangenheit ist das problematisch, denn die künstliche Intelligenz simuliert die Vergangenheit nur und ruft sie nicht wirklich auf. Wer seine Examensarbeit mithilfe der KI schreibt, kann deshalb keinen wissenschaftlichen Fortschritt zu erzeugen.“

Historiker Professor Michael Wolffsohn ordnet gegenüber WELT ein: „Die Verdummung der Menschheit wird voranschreiten. Die KI kennt zwar mehr Blätter, aber der Mensch erkennt den Wald. Und auf diesen kommt es an.“

Wie wird es für Google weitergehen? Der Konzern gibt in seinem Statement zumindest an, eine „Lektion gelernt“ zu haben. Eine Zusage, dass die Fehler gänzlich behoben werden, will der zuständige Vizepräsident für „Wissen und Information“ bei Google, Prabhakar Raghavan, jedoch nicht geben. „Ich kann nicht versprechen, dass Gemini nicht ab und zu peinliche, ungenaue oder anstößige Bemerkungen machen wird“, sagt er. „Aber wir geben unser Bestes.“

An dieser Stelle finden Sie Inhalte von Drittanbietern
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.

Mehr aus dem Web
Neues aus der Redaktion
Auch interessant
Mehr zum Thema