OBS

写真拡大

今や私たちの生活に欠かせない存在となりつつある「AI(人工知能)」。AIとは一体何なのか。そして、その便利さの裏にはどのような問題やリスクが潜んでいるのか。OBSラジオ「加藤秀樹が語る、日本の未来構想」で、構想日本の加藤代表が分かりやすく解説しました。

【写真を見る】AIの正体と付き合い方 便利さの裏に潜むリスクとは わかりやすく解説

AIの進化と「生成AI」

AI(Artificial Intelligence)は、人間の「考える」「判断する」「予想する」といった行為をコンピューターにさせる技術です。

従来のコンピューターは、プログラミング言語などの「特殊な言葉(指示)」を使わなければ動かせませんでしたが、現在のAIは、私たちの「日常の言葉(自然言語)」で対話できるのが大きな特徴です。

また「生成AI」という言葉がよく使われます。これはコンピューターに質問を入れて答えを出させるという以上に、コンピューターが文章を書いたり、絵を描いたりする機能で、これも大きな特徴です。

徹底した「人まね」の仕組み

代表的なAIとその提供会社を挙げると、ChatGPT(OpenAI)、Gemini(Google)、Claude(Anthropic)などです。できることは、文章の作成、翻訳、画像や動画の生成、音楽の作曲など。AIにはスマホにアプリを入れると無料で使えるものもあります。もう少し高度なものは有料になります。

いずれも使い方は、スマホやパソコンから「プロンプト(指示・命令)」を入力すれば、時間をかけずに回答や作品を作り出します。期待通りの答えを出させるには、的確な指示をする必要があります。度々使っていると慣れてきて、指示の出し方もうまくなります。

私たちにとってAIが重宝するのは、AIが徹底して「人まね」するように作られているからです。人が作った文章や絵や音楽。またこういう場合に人はどう考えるか、といったあらゆることをデータ化してコンピューターに入力し、AI利用者の質問に適した言葉や形や色、音を最も高い確率で組み合わせて答えを出してくるのです。

ですから、AIが利用者の質問の意味を理解して、それに答えようという意思は一切ありません。AIの答えはあたかも感情を持っているように見えますが、あくまで機械的なデータの組み合わせに過ぎないのです。

AIに潜む「4つのリスク」

AIを使うほど、AIは「この利用者はこういう答えを求めている」と学習し、個人に寄り添うようになります。それは、通販サイトがオススメ商品を紹介してくるのでみなさん経験済みだと思います。しかし、加藤代表はその仕組みゆえ、以下のような危険性を指摘します。

1.依存症と「人格化」の危険性
AIは利用者の好みに合わせて寄り添ってくれるため、人生相談的に使い、「まるで親友や人間であるかのように」錯覚してしまう人が増えているようです。AIのアドバイスに依存してしまうリスクがあります。

2.データの偏り
AIの回答は、あらかじめ読み込まれたデータとその組み合わせで決まります。例えばアメリカ企業が作ったAIにはアメリカの価値観が、中国やロシアが作ったAIにはその国に都合の良いデータが反映されやすくなります。

3.判断プロセスの「ブラックボックス化」

高度なAIになるほど、「なぜその結論に至ったのか」を人間が解明できなくなります。アメリカのイラン攻撃にもAIが使われ、標的を特定する時間が格段に速くなったと言われますが、その標的をどうやって特定したのか。仮にそれが誤爆だった場合、なぜエラーが起こったのか、過程が誰にも分からないという非常に危険な状態を生み出します。

4.人間のクリエイティビティの停滞
例えば、医療用の手術支援ロボット(ダヴィンチなど)も、過去の人間の手術データから学習しています。しかし、将来的に人間がロボットを使うばかりになり、自ら新しい手法を生み出すことをやめてしまえば、学習材料もなくなり、AIの進歩も止まります。AIに依存しすぎると、社会の進化が止まってしまうリスクもあります。

AIは非常に便利なツールで、社会に与える影響が大きいがゆえに、使い方などに関してきちんとルールを作ることが不可欠です。加藤代表は、現在EUなどを中心に進められている「AIに対する法規制やルール作り」が、出遅れている日本にとっても急務であると訴えました。