人間レベルの文章を生成するChatGPTがEUのデータ保護規則に違反している疑いで、開発元のOpenAIがイタリアのデータ保護機関から調査を受けています。当局は2023年4月30日までにイタリア及びEUの法律を順守するよう呼びかけていますが、AIの専門家は「このタスクは不可能に近い」とし、ChatGPTおよびOpenAIが抱える問題について詳述しました。

OpenAI has until April 30 to comply with EU laws - ‘Next to impossible,’ say experts

https://cointelegraph.com/news/openai-has-until-april-30-to-comply-with-eu-laws-next-to-impossible-say-experts

EUの一般データ保護規則(GDPR)の下では、技術系企業は個人データを使って製品を訓練する際にユーザーの同意を得なければなりません。さらに、EUで事業を展開する企業は、データの収集と共有をEUの人々が拒否できるよう選択肢を与えなければなりません。

イタリアのデータ保護機関は、OpenAIによってデータが収集される際にその事実がユーザーやデータ主体へ伝えられていないこと、アルゴリズムの訓練用に個人データを大量に収集・処理することを是とする法的根拠がないように考えられることを問題視しており、OpenAIにコンプライアンスの改善を求めています。当局は2023年4月30日を期限とし、それまでにイタリアおよびEUのデータ保護とプライバシーに関する法律を順守するよう指示しました。

また、ChatGPTがGDPRに違反している可能性があるとして、当局はChatGPTへのイタリアからのアクセスをブロックするようOpenAIに命令しています。OpenAIはこれに従い、2023年4月1日からブロックを開始。実態を見直してアクセスを復元できるよう尽力するとの声明を出していました。

OpenAIがイタリアからのChatGPTへのアクセスをブロック - GIGAZINE



しかし、当局の指示にOpenAIが従うのは不可能に近いと専門家は指摘しています。なぜなら、OpenAIのモデルはインターネットからかき集めたありとあらゆる情報を元にトレーニングされているため、開発者でさえどのようなデータが収集されているかを正確に把握できないとされているからだとのこと。

Hugging Faceの主任倫理科学者であるマーガレット・ミッチェル氏は「OpenAIが個人のデータを特定し、引き出すことは極めて困難でしょう。データ収集に関する最新技術は非常に未熟です。これは、AIモデルの開発に多大な労力が費やされたにもかかわらず、データ収集方法は過去10年間でほとんど変わっていないためです」と述べました。



OpenAIが法令順守を成し遂げるためには、モデルの訓練に使用するデータをユーザーの同意を得て入手したことを証明するか、データを収集することに正当な利益があったことを証明しなければならないとされています。

ニューカッスル大学のインターネット法教授であるリリアン・エドワーズ氏は「争点はイタリア当局の範囲を超える大きなものであり、EUの最高裁判所である司法裁判所に持ち込まれる可能性があります」と指摘。イタリアに続きドイツやフランスでもChatGPTに対する規制措置が検討されていることから、OpenAIの課題はイタリアだけにとどまらず、各国でも同様に追及される可能性があります。