近年はテキストや画像、音声などを生成するAI技術が急速に進歩しており、これらのAIが犯罪や誤情報の拡散に悪用されることが懸念されています。そんな中、OpenAI・Meta・Microsoft・Google・Amazon・Anthropic・Inflectionの大手AI企業7社が、アメリカ政府の要請に従って「AIのリスクを軽減するための自発的な取り組み」を行うことを約束しました。

FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI | The White House

https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/



Meta, Google, and OpenAI promise the White House they’ll develop AI responsibly - The Verge

https://www.theverge.com/2023/7/21/23802274/artificial-intelligence-meta-google-openai-white-house-security-safety

OpenAI, Google will watermark AI-generated content to hinder deepfakes, misinfo | Ars Technica

https://arstechnica.com/ai/2023/07/openai-google-will-watermark-ai-generated-content-to-hinder-deepfakes-misinfo/

近年はAIが生成するコンテンツの精度が急速に向上しており、本物の画像と見間違えてしまうほどのクオリティの画像を誰でも生成することが可能になっています。2023年3月にはイギリスの調査報道機関・ベリングキャットの創設者であるエリオット・ヒギンズ氏が、画像生成AIのMidjourneyを使用して「ドナルド・トランプ前大統領が逮捕されたフェイク画像」を生成し、Twitterで公開しました。この事態を重く見たMidjourneyは、「他者に対して攻撃的、あるいはその他の虐待的な画像またはテキストプロンプトの使用を禁止する」という利用規約違反であるとして、ヒギンズ氏に利用禁止処分を科しました。

画像生成AI「Midjourney V5」を利用して偽の「トランプ前大統領が逮捕された」画像を生成した人物が利用禁止処分を受ける - GIGAZINE



また、すでに知り合いを装った電話をかけて金銭をだまし取る「オレオレ詐欺」にAI製のクローン音声を用いる事例が急増していることや、チャットAIを用いてサイバー犯罪者がビジネスメール詐欺を展開していることなども報じられています。

サイバー犯罪者がチャットAIをビジネスメール詐欺に活用している - GIGAZINE



以上の事例からわかるように、AI技術の進歩は人間の労力を大幅に軽減する可能性を秘めている一方で、ディープフェイクや犯罪に悪用される危険性も秘めています。そのため、各国の規制機関はAIを管理・規制するためのルール策定に取り組み始めており、EUでは「AIの使用を規制する法案」を2023年中に承認するとみられているほか、アメリカのホワイトハウス科学技術政策局(OSTP)は2022年に、AIによる害や差別から市民を守るための「AI権利章典」の草案を発表しています。

新たに2023年7月21日、ホワイトハウスがOpenAI・Meta・Microsoft・Google・Amazon・Anthropic・Inflectionという大手AI開発企業7社を招集し、「AIテクノロジーの安全で透明性の高い開発に向けたバイデン・ハリス政権の取り組みを支援するための自発的取り組み」の合意を得たことを報告しました。

ホワイトハウスは声明で、「これらの新しいテクノロジーを開発している企業には、自社製品の安全性を確保する責任があります。AIの可能性を最大限に活用するために、バイデン・ハリス政権はこの業界に対し、イノベーションがアメリカ国民の権利と安全を犠牲にすることがないよう、最高の水準を維持するよう奨励しています」と述べています。



大手AI開発企業7社は、以下のような項目に取り組むとのこと。

・AIシステムをリリースする前に内部および外部のセキュリティテストを実施し、さまざまなAIリスクや社会的影響について評価する。

・AIリスクの管理について業界全体、政府、市民社会、学術界と情報を共有する。

・モデルの重み付けを保護するためのサイバーセキュリティに投資する。

・サードパーティーによるAIシステムの脆弱(ぜいじゃく)性発見および報告を促進する。

・AIによって生成されたコンテンツをユーザーが認識できるように、AI生成コンテンツに透かしを入れるなどのメカニズムを開発する。

・AIシステムの機能や制限、適切および不適切な使用領域について公的に発表する。

・AIシステムが引き起こす可能性がある差別や偏見の助長、プライバシーの侵害といった社会的リスクに関する研究を優先的に行う。

・社会の大きな課題に対処するために高度なAIシステム開発を行う。

テクノロジー系メディアのArs Technicaは、「AI開発企業7社は、AIが生成したコンテンツに明確な透かしを入れる技術の開発に取り組んでいます。これにより、AIが生成したテキスト、ビデオ、オーディオ、画像を、そのコンテンツの信ぴょう性について誤解させることなく、より安全に共有できるようになるとバイデン政権は期待しています」とコメント。OpenAIは今回の合意について報告したブログで、コンテンツの出どころを示す透かしシステムを開発すると共に、コンテンツがAIによって生成されたのかどうかを判断するツールまたはAPIの開発にも取り組むと報告しています。

なお、今回の合意はあくまで自発的に締結されたものであり、法的な拘束力はないとのことです。