【ファサーノ時事】先進7カ国首脳会議(G7サミット)は首脳声明で、人工知能(AI)が労働者にもたらす生産性やスキルの向上といった潜在的な可能性に光を当てた。

 ただ、企業でAIを利用する上では、各国で動き始めた法制化への対応に加え、偽情報の拡散といったリスクがつきまとう。急速な発展を遂げるAIが持つ「影」の側面はあらわとなっており、対応は待ったなしの課題だ。

 声明は「リスクを軽減しつつ、AIの発展を促進する形で潜在力を活用できるよう、AIガバナンスへの取り組み」が必要だと訴えた。社会実装で重要なのが、安全性を確保し、法律や社会規範などに沿ってAIを管理監督する仕組みだ。

 文章や画像を作り出す生成AIの急速な普及で、既にさまざまなリスクが顕在化している。米国では5月、オープンAIが提供した音声サービスが俳優スカーレット・ヨハンソンさんの声に似ていたことで騒動に発展。中国やロシアなどの組織が情報操作によって世論を誘導しようとした事例も報告された。

 法規制は、5月に欧州連合(EU)でAIの開発や利用に関する規制法が世界で初めて成立したばかり。米国は昨年の大統領令で、安全保障に関わるシステム開発企業に安全性試験を義務化し、州単位で法制化が進みつつある。日本は今夏にも法制化の検討を始め、人権侵害や犯罪、産業利用などのリスクに応じた仕組みを整える。

 こうした動きを踏まえ、富士通は国によって異なる法令や複雑化する企業規則の順守状況を監査する世界初の生成AI技術を実用化。企業に安全なAI利用を促す。情報の真偽を判定するAIも開発中で、岡本青史富士通研究所長は「(情報を識別する)認定機関などを含めたエコシステムをつくることが重要だ」と指摘する。

 G7は今後、AIによる労働分野の「光」と「影」について議論を進め、行動計画をまとめる。生産性の向上とガバナンス強化の適正なバランスについての解を打ち出せるか注目される。