Nach peinlichen Vorfällen

Update: Gemini erzeugt wieder KI-Menschen

Uhr
von Sara Meier und Joël Orizet und cka, jor

Googles KI Gemini generiert auf Wunsch wieder Bilder von Menschen. Nach Vorfällen im Februar 2024, bei denen die KI ethnisch diverse Nazis erstellte, schaltete Google die Funktion zur Generierung von Menschen komplett aus.

(Source: gmast3r / iStock.com)
(Source: gmast3r / iStock.com)

Update vom 29.08.2024: Rund ein halbes Jahr nachdem Google seinen KI-Assistenten Gemini aufgrund von problematischen Darstellungen wie etwa dunkelhäutiger Nazi-Soldaten pausiert hatte, hob der Konzern die Sperre zur Darstellung von Menschen wieder auf. Google erklärte, dass man es versäumt habe, Ausnahmen für Diversität zu programmieren, wie “Watson” schreibt. 

Grundsätzlich haben KIs Probleme mit zu wenig Diversität bei abgebildeten Menschen, weshalb Google bei der Programmierung nachhilft. Jedoch macht Diversität nicht überall Sinn, erst recht nicht bei Abbildungen in Zusammenhang mit dem nationalsozialistischen Deutschland der 1930er- und 1940er-Jahre Jahre. 

Abo-Nutzende von Googles KI-Chatbot sollen laut Google zuerst wieder Zugriff auf das Erstellen von KI-Bildern mit Menschen haben. Gemini soll jedoch weiterhin keine fotorealistischen Bilder mit bekannten Personen generieren. Mit dieser Einschränkung will Google eigenen Angaben zufolge Desinformation im Internet vorbeugen. 

 

Originalmeldung vom 26.02.2024:

Google-KI Gemini erzeugt keine Bilder von Menschen mehr

Google hat die Funktionalität seines KI-Assistenten Gemini eingeschränkt. Das Tool kann keine Bilder von Menschen mehr erzeugen - zumindest vorerst. Der Google-Konzern überarbeitet das Feature und räumt ein: In einigen Fällen habe das Tool "peinliche", "falsche" und sogar "beleidigende" Bilder erzeugt, heisst es in einem Blogbeitrag von Google. 

Tatsächlich zog Googles Bildgenerator teils massive Kritik auf sich. Auf der Kurznachrichten-Plattform X (Ex-Twitter) sorgten von Gemini generierte historisch anmutende Motive für Aufsehen. So soll die Google-KI beispielsweise auf den Prompt "1943 German Soldier" unter anderem eine asiatische Frau und einen schwarzen Mann in einer Art Nazi-Uniform gezeigt haben. 

Google erklärt sich das Problem im Blogbeitrag folgendermassen: Erstens habe man beim Tuning des KI-Modells nicht beachtet, dass die Darstellung von Diversität in bestimmten Fällen fehl am Platz ist. Zweitens sei das Modell mit der Zeit vorsichtiger geworden als ursprünglich beabsichtigt - deswegen habe sich Gemini mitunter geweigert, bestimmte Prompts vollständig zu verarbeiten. Zudem habe das Modell teilweise harmlose Aufforderungen fälschlicherweise als sensibel interpretiert. 

"Bald" will Google eine überarbeitete Version des Bildgenerators veröffentlichen. Der Suchmaschinen-Konzern gibt im Blogbeitrag allerdings zu bedenken: Gemini sei nicht immer zuverlässig - vor allem bezüglich der Generierung von Bildern oder Texten zu aktuellen Nachrichten und brisanten Themen. "Es gibt Fälle, in denen KI die Dinge einfach falsch versteht", schreibt Google und fügt hinzu: Man arbeite daran, dies zu verbessern. 

Übrigens: Google lancierte kürzlich Gemini-Abonnements für Grossunternehmen und KMUs. Und für Entwicklerinnen und Entwickler stellte Google die Modellfamilie Gemma vor. Lesen Sie hier mehr dazu

Webcode
9knqFubj

Meist gelesen

» Mehr News