「1943年のドイツ兵」というプロンプトで黒人やアジア人の画像を生成したことなどにより、GoogleのAI「Gemini」が「歴史的な画像の描写に不正確さがある」と非難されました。これを受けGoogleは「幅広い結果を生成しようとした試みが的外れな結果につながった」と謝罪し、調整を行う方針を示しました。

Google apologizes for ‘missing the mark’ after Gemini generated racially diverse Nazis - The Verge

https://www.theverge.com/2024/2/21/24079371/google-ai-gemini-generative-inaccurate-historical

Google Gemini's 'wokeness' sparks debate over AI censorship | VentureBeat

https://venturebeat.com/ai/google-geminis-wokeness-sparks-debate-over-ai-censorship/

問題のプロンプトで生成された画像が以下。白人のドイツ兵らしき人物に加え、アジア人や黒人も生成されています。



このほか、「1820年のドイツにいるカップル」というプロンプトに対し、Geminiは「アジア人と黒人」「ネイティブアメリカンと黒人」といった組み合わせの画像を生成しました。





Geminiが歴史的事実にそぐわない画像を生成するという点は一部の人たちから反感を買い、「人種や性別の多様性を追求するあまり、歴史的に正確な結果が得られないのではないか」という疑問が投げかかられています。

こうした事態を受け、Googleは「Geminiは幅広い人々を生成します。世界中の人々がGeminiを利用するため基本的には良いことですが、この件に関しては的外れです」と述べ、このような描写を直ちに改善するよう取り組んでいることを明らかにしました。





またGemini開発担当のジャック・クラフチック氏は「Geminiが一部の歴史的な画像生成描写において不正確なものを提供していることを認識しており、直ちに修正に取り組んでいます。私たちのAI原則の一環として、私たちはグローバルなユーザーを反映するように画像生成機能を設計しており、表現と偏見を真剣に受け止めています。歴史的な文脈には深い背景があるので、それに対応できるようさらに調整します」と述べました。





Googleを非難した人の中には「多様性を描写するのは場合によっては良いことだ」と一部擁護する者もいましたが、それでも「Geminiに一貫性がない」という点は非難されるべきだとのこと。例えば「白人の画像を生成して」というプロンプトには「特定の民族を指定した要望には応えられない」と返答するのに、「黒人」や「アジア人」だと何のためらいもなく画像を生成するという点が疑問視されています。





また「白人」を生成するのは非常に難しいとの声もあります。