2023年10月にパレスチナのスンナ派イスラム原理主義組織・ハマスがイスラエルへの大規模攻撃を行い、これに対してイスラエル側がパレスチナのガザ地区に反撃を行ったことから、大規模な紛争が続いています。イスラエル国防軍はハマスの戦闘員を暗殺するために「Lavender」と呼ばれるAIを活用していることが報じられていますが、このLavenderとAIによる追跡システムを組み合わせた「キルチェーン」と呼ばれるコンボで民間人を含めた多くのガザ地区住民を爆殺していると報じられています。

Gaza war: Israel using AI to identify human targets raising fears that innocents are being caught in the net

https://theconversation.com/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net-227422



‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza | +972 Magazine

https://www.972mag.com/lavender-ai-israeli-army-gaza/

イスラエル国防軍はハマスやイスラム聖戦(PIJ)の軍事部門に所属する容疑者を暗殺するため、AIを用いた「Lavender」というシステムを開発しました。Lavenderは、ガザ地区の住民230万人を監視・収集したデータを分析し、ハマスやイスラム聖戦の戦闘員である可能性を1から100までのスコアで評価。さらにスコアの高い個人を自動的に暗殺対象とします。Lavenderは3万7000人ものパレスチナ人を暗殺対象としてリストアップしました。

イスラエルはAIシステム「Lavender」を用いてハマスなどの標的3万7000人を識別し攻撃している、識別率は90% - GIGAZINE



ニュースサイトの+972 Magazineによると、イスラエル国防軍は「Where's Daddy?(パパはどこ?)」という追跡システムをLavenderと組み合わせて運用しているとのこと。具体的には、Lavenderによって暗殺対象とされた人物をWhere's Daddy?に登録し、追跡します。そして、対象者が自宅に入ったことをWhere's Daddy?が検知すると担当の軍関係者に通知が届き、対象者の自宅が爆撃対象に指定されるという流れです。これにより、イスラエル国防軍は対象者とその家族を爆撃によって暗殺することが可能になりました。このコンボは「キルチェーン」と呼ばれるそうです。

爆撃に使われるのは誘導装置を持たない非誘導爆弾で、スマート爆弾と対照的な爆弾ということで「Dumb Bombs(バカ爆弾)」と呼ばれています。+972 Magazineによれば、イスラエル国防軍は下級戦闘員を暗殺する際にコストを抑えるため、このDumb Bombsを使っていたとのこと。+972 Magazineは「イスラエル国防軍は、目標の戦闘員だけではなく、その家族や近隣の民間人にも被害が及ぶことを承知の上でDumb Bombsを使用したのです」と批判しています。

+972 Magazineに語った匿名の情報提供者によれば、イスラエル国防軍は下級戦闘員1人につき最大15〜20人の民間人を殺害することを許可していたとのこと。また、敵高官の場合は民間人の犠牲が100人以上に及ぶことも容認されたそうです。これは国際法に反すると+972 Magazineは強く非難しています。



情報提供者によると、イスラエル国防軍は爆撃対象の家屋にいる民間人の数を自動計算するソフトウェアを使用していたとのこと。このソフトウェアは、戦前のデータに基づいて各家屋の居住者数を推定し、その地域からどの程度の割合の住民が避難したかを考慮して居住者数を推測するものでした。時間を節約するため、イスラエル国防軍は実際に家屋を監視して居住者の数を確認することはせず、このソフトウェアで民間人の被害を推測したというわけです。

しかし、情報提供者は「このモデルは現実とはかけ離れており、避難前後で家屋の居住者数が大きく変わることが考慮されていなかった」と言います。

また、Where's Daddy?が暗殺対象者の帰宅を検知してから実際に爆撃するまで時間差があったとのこと。この時間差によって、対象者が再び外出してしまったにもかかわらず、対象者の自宅を爆撃してしまうケースもあったそうです。そのため、対象者を暗殺できず、ただその家族だけを爆殺してしまうということもあったと情報提供者は語っています。



さらに過去の戦争では、高官を暗殺した後に軍関係者が電話を傍受し、民間人の犠牲者数を確認していましたが、今回の戦争で下級戦闘員についてはこの確認作業が省略されたとのこと。そのため、軍は爆撃で実際に何人の民間人が犠牲になったのか把握しておらず、下級戦闘員については、本人が死亡したかどうかも確認していない状況だそうです。

+972 Magazineは、イスラエル国防軍がAIを用いて、効率を重視しながらガザ地区に住む民間人を虐殺したと批判し、戦闘員だけでなくその家族も巻き添えにする無差別爆撃は明らかに国際法を無視した人道に反する行為だと糾弾しています。学術系ニュースメディアのThe Conversationは「軍事技術において、スピードと殺傷力が重要視されています。しかし、AIを優先することで、人間の主体性が損なわれる可能性があります。人間の認知システムは比較的遅いため、システムの論理では、これが必要とされるのです。また、コンピューターが生成した結果に対する人間の責任感も失われてしまいます」と述べ、軍事AIの過度な発展に警鐘を鳴らしました。

なお、The Conversationによれば、イスラエル国防軍はAIシステムの使用を即座に否定したそうです。