ジェネレーティブAIの可能性が注目されているが、誤った情報、サイバーセキュリティ、eコマース詐欺、データプライバシーに関連して懸念があり、まだ注意が必要だと警告する声も上がっている。

一方で2023年のAI開発競争は、米国やアジアの大手IT企業がAIツールを自社のプラットフォームに組み込むための計画を迅速に発表するなかで、全速力で進んでいる。先ごろ、マイクロソフト(Microsoft)、Google、アリババ(Alibaba)、バイドゥ(Baidu)、テンセント(Tencent)は、自社の製品やサービスの新機能を発表した。

しかし、IT大手やスタートアップがAIによって生成されたテキストや画像、動画のためのツールを構築・規模拡大していくなかで、サイバーセキュリティの専門家たちは誰がアクセスできるべきか、を判断するのが重要だと述べている。

これに関しては、近年得られた教訓が多く存在しており、ジェネレーティブAIの普及に備えるのに役立つかもしれない。たとえば、わずか数年前に起きたFacebookのケンブリッジ・アナリティカ(Cambridge Analytica)スキャンダルは、ソーシャルネットワークやアドテック・エコシステム全体にわたって、誰がユーザーデータにアクセスすべきか、また誰がアクセスすべきではないかという、データプライバシーに関する新たな議論を引き起こした。

マルウェアや誤った回答という懸念も



マカフィー(McAfee)の最高技術責任者であるスティーブ・グロブマン氏は、別の例として、コードレッド(Code Red)、ニムダ(Nimda)、SQLスラマー(SQL Slammer)など、1990年後半から2000年前半にかけて発生した自己複製型マルウェアワームの波を挙げた。これらのマルウェアの流行によって、サイバーセキュリティの専門家たちは、コンピュータネットワークを保護するための手順を完全に考え直さざるを得なくなった。

同氏は「このテクノロジーは今まさにそれと同じ道筋にいる」と語っている。「(このテクノロジーをどのように運用するべきか)解明しなければならない。そして、2022年の段階でベストプラクティスと考えられていたもののいくつかは、今後、考え直す必要があるかもしれない」。

ここ数年、マカフィーなどの企業は自然言語処理などのAIツールをウェブの評価や分類に応用することが増えている。たとえば、マカフィーはAI攻撃を失敗させるために機械学習を使用する敵対的AIを使用して、マルウェアがAIベースの検出メカニズムを回避する方法を調査した。

また、AIのテキストジェネレーターは「幻覚」と呼ばれる、誤った回答を提示する傾向に関する例も数多く存在しており、偶発的、そして意図的な誤情報の両方の拡散が懸念される。先ごろ、Googleは新しい「バード(Bard)」チャットボットのプロモーションビデオで不正確な情報が提示されたため、時価総額が1000億ドル(約13兆4115万円)減少した。さらに1月には、誤情報調査会社のニュースガード(NewsGuard)がChatGPT上で100件の誤った情報をテストしたところ、COVID-19やウクライナ戦争、学校での銃乱射事件といったトピックを含む「雄弁かつ虚偽、誤解を招く主張」を約80%の確率で提示されたと発表した。

「この報告書は、この技術がトロールファームを誰にでも入手できるようにする可能性を秘めていることを示している」と、この報告書に携わったニュースガード社の企業編集者であるジャック・ブリュースター氏は述べている。「悪い意図を持った人がこの技術を手に入れて安全のための機構をすり抜けてしまえば、ボタンひとつできれいなコピー文を書けるライター2万人以上に匹敵する力を突然手に入れることができる。それは世界中の民主主義に信じられないほど有害な影響を与える可能性がある」。

悪意のあるAIを防ぐいたちごっこに



最新のAIプラットフォームはまだ比較的新しいが、すでに主流になりつつある。昨年末にデビューしたばかりのChatGPTは、1月の月間アクティブユーザー数を1億人とアナリストが見積もっている。また、過去の技術革新と同様に、テクノロジーの急速な普及によって適切な安全対策が追いつかなくなる危険性もある。OpenAIのような企業はすでにさまざまな懸念を改善するために取り組んでいるが、悪い意図を持ったプレイヤーたちはルールに従わず、悪意のある目的でツールを使用する可能性があるという指摘もある。研究者らは先ごろ、ハッカーが違法コンテンツを生成するための制限を回避する方法をすでに発見しているとした。

デジタル著作権を専門とする非営利団体の電子フロンティア財団(Electronic Frontier Foundation)で公益技術部門のディレクターを務めるジョン・カラス氏は、AIチャットシステムには「知識に関して、コントロールを失い暴走してしまう傾向がある」と指摘する。また、プライバシーや知的財産権、ヘイトスピーチに関する懸念もあるという。

「私たちが目にしているものは、過去に起きたことが、この世代のバージョンとしてまた起きているのだと思う」とカラス氏は言った。「チャットボットは、彼らとチャットする人々から学び、悪意のある人々はボットを不快なことを言うように変えることができる」。

「AIを止めようとする試みは無駄」



これらの最新技術が、偽の製品レビューや画像などの使用によって、Eコマースに新たな問題を引き起こす可能性もある。しかし、コンテンツのモデレーションはジェネレーティブAIが台頭する以前から難しい作業であり、機械と人間の両方を組み合わせる必要があると、広告詐欺の検出と防止に関してマーケターを支援するイスラエルのサイバーセキュリティ企業CHEQの共同創設者兼CEOであるガイ・ティトゥノビッチ氏は述べた。その一方で、悪意のあるAIを防ぐためのいたちごっこが加速しているため、ボットが増えればCHEQのような企業にとってより多くのビジネスを生み出す可能性もある。

「100年前にも(酒類の販売を禁止した)禁酒法があったが、うまく機能しなかった」とティトゥノビッチ氏は述べた。「そして、AI(自体)を止めようとする試みも同じように無駄になると思う」。

[原文:As the generative AI race heats up, so does the potential for it to have an ‘incredibly harmful impact’]

Marty Swant(翻訳:塚本 紺、編集:島田涼平)