報道でAIとかIoTといった文字を見ない日はほとんどありません。いったい今回の「AIブーム」何が特徴的で何に気をつける必要があるか、もっと本質をついた解説があってもよいように思います。

 そこで、私たち東京大学のグループが「知の死角」と呼んでいる問題に照準を合わせ、どのような対策が有効化を検討してみたいと思います。

 初めに、五神真総長の言葉を引用して、ポイントを抜き出してみたいと思います。

[JBpressの今日の記事(トップページ)へ]

ブラックボックスAIの恐怖

 「近年AI技術の中で注目されている機械学習や深層学習の相当部分は、ベイズ統計という確率統計理論に依拠したもので、従来の技術とはやや異質なところがあります」

 「インプットした情報からアウトプット(結論)を出すまでの計算の過程がブラックボックスになっていることと結果がステップごとの論理の積み重ねで出ているわけではないのです」(五神真「変革を駆動する大学」p.158 東京大学出版会 2017)

 こんなふうにクリアに認識している人が、どれほどいるでしょうか。少なくとも東大内で学部学生に質問しても、とりわけ1〜2年生なら9割方、何も分かっていないと思います。

 五神東大総長の言葉を引き続き引用しつつ、このポイントを検討してみましょう。

 「普通の計算機プログラムであれば、エラーが起きると、プログラマーがそれを取り除く作業をして、その積み重ねで正確なプログラムを作っていきます。(中略)先のようなAIの場合はそうではありません。AIが出した結果が正しいのかどうかは証明できないのです」

 単にブラックボックスというだけでなく、今日のAIのポイントは論理的にきれいに跡づけられるケースばかりではないこと。ここに注目する必要があります。

 「いまうまく機能していると思っていたとしても、全く想定しないくらい大きく間違った結論を急に出してしまう可能性がないとは言えません。(中略)実は、人間の脳も同じ意味で処理プロセスが明らかでない部分が多いにもかかわらず、人間が社会を形成しています」

 そうなんですね。第2次世界大戦後、ジョン・フォン・ノイマン主導による電子計算機の発明以来、20世紀型の「人工知能」は古典的に跡づけられるロジックを用いて、いわば因果的、あるいは職人的精密加工型で演算をプログラムし、実行してきた。

 あえて言えば古典力学のように一つひとつのプロセスが明確、少し難しく言うなら「ニュートン型」のクラシカルな推論が行われていた。

 ところが、2010年代の人口知能は、統計的な推論を積み重ねて結果を帰納していく、古典的な因果律とは大いに異なる「知性」として発展している。これに注目する必要があるのです。

 やや難しいですが、現代の物理になぞらえれば「古典論」ならぬ「量子論」に近い「確率・統計型の知性」であることに注意する必要があります。

 まあ、難しい表現は大学の中だけにして、以下では、まず

 「現代のAIは人間の目に見えないブラックボックスの面がある」(知の死角)

 「それを人間がていねいに跡づけていく必要がある」(知の翻案・知の架橋)

 という根本課題があることを、銘記しておきましょう。これは2000年時点での東京大学「小宮山知識構造化」のAI-IoT対応の2030年モデルにアップデートする「ベクトル知識構造化」のメイン・ステートメントで、大学では私たちが推進している仕事にほかなりません。

AIブームの「世代」とは何か?

 今日のAIブームは「第3次AIブーム」と呼ばれます。この第3次AIブームの最大の落とし穴が「ブラックボックス」による知の死角を避けがたい点であると、いま記しました。第3次があるということは第1次と第2次もあるはずです。

 第1次AIブームとは、フォン・ノイマン型汎用電子計算機の発明(1946年2月14日のENIAC完成を端緒とする)の直後、単なる汎用計算機ではなく、それを人工的な頭脳として、通信やロボット工学などに応用できるよう、拡大する取り組みからスタートしたと言ってよいでしょう。

 主導者はマサチューセッツ工科大学(MIT)教授のノーバート・ウィーナーで、彼の提唱した人口知能学は、ギリシャ語で「操舵する人」の意を持つ「キュベルネテス」からサイバネティクス(Cybernetics)と呼ばれました。

 現在でも「サイボーグ009」とか「サイバー空間」といった言葉にサイバネティクスの片鱗は残っていますが、なにぶん当時は通信工学も制御工学も未発達、実際には「フィードバック」など現在では古典化した基礎的な概念と技術を生み出しつつ、サイバネティクスそのものは自然鎮火的に下火になっていきました。

 この後、時代はどう推移したでしょうか。

 発明当事は真空管をスイッチング素子に組み立てられていたコンピューターは、やがてトランジスタなど固体素子を用いることで、はるかに安定動作するようになります(第2世代コンピューター:1950年代〜60年代前半頃まで)。

 分かりやすいのはメインフレームによる放送の制御でしょう。日本では1953年2月1日、NHKのテレビ放送が開始されます。

 いまだ受像機は数が限られ、民衆が街頭テレビで放送されるプロレス中継、力道山の空手チョップに熱狂していた頃、放送を支えていたのが「第2世代コンピューター」と考えて大きく外れません。

 さらに、トランジスタやダイオードを組み合わせて半田づけしていた段階から、固体素子の技術が向上してIC(インテグレーテッド・サーキット=集積回路)を用いることで、コンピューターが様々な技術分野に応用されるようになります(第3世代コンピューター:1965-)

 この第3世代コンピューターが支えた技術としては、1969年7月20日、ニール・アームストロング宇宙飛行士らが月面着陸した「アポロ計画」が分かりやすい例でしょう。

 言うまでもありませんが、第2、第3世代コンピューター発達の主な駆動源は米ソ冷戦による核ミサイル防衛網です。

 特に、「悠長にトランジスタの半田づけなどしてられるか!」という第3世代への進化を推進したのは1962年のキューバ危機と言って大きく外れません。政治と国際緊張、軍事技術開発がイノベーションの大文字の歴史を牽引してきたのは、残念ですがまぎれもない事実です。

 こうして集積回路の技術が進展し、米ソ冷戦を背景に「大型集積(LSI=Large Scale Integration)」「超大型集積(SLSI=Super Large Scale Integration)」と技術革新と世代交代が進む中で発表されたのが、1971年11月に発売された米インテルのマイクロプロセッサー「4004」でした。

 これ以降、世界は「ワンチップコンピューター」第4世代コンピュータの時代に突入し、現在でもそれが続いていることを確認しておきましょう。

 皆さんお手持ちのPCにも「インテル入ってる」と表示があるかと思いますが、これを発注したのが日本企業ビジコンであること、開発も日本人、嶋正利氏が決定的な貢献を果たしていることなどは、今日必ずしも正当に社会の多くが認識しているようには思われません。

 1960年代、高度成長に沸く日本では熾烈な「電卓戦争」が戦われていました。

 スーパーのレジをイメージするといいと思います。この電卓戦争で一歩リードするべく一大経営判断を下した日本の小さな電卓メーカー、ビジコンの果たした世界史的な役割については別途お話しするとして、ここでは1970年代初頭に確立された「第4世代コンピューター」の土台が、基本的に約半世紀変わっていないことを確認しておきたいと思います。

 しばしば言及される「ムーアの法則」にしても、善くも悪しくもこの土台があってのこと、そしてその上に、原始的なサイバネティクスではなく、電卓ないしPCという「電脳ニューロン」を持つ電子頭脳を構想したのが、1970〜80年代の「エキスパート・システム」すなわち「第2次AIブーム」だったわけです。

 一言で言うと、最初に五神さんの言葉で引いたように、前回ブームのAIは、推論の過程を古典的に追って行くことができた。

 五神さんは、実は高校・大学・学部学科(東京大学理学部物理学科)〜現在までずっとご一緒の先輩にあたるのですが、1980年代の日本は今日とは大きく状況が異なり、研究室にはお金がなく、中庭に落っこちてる、お金持ちの研究室や工学部から出されたごみ(として処理されたコンピューターや資材)を拾ってきて、それを改造して何とかやりくりする、みたいな経験を私自身もしています。

 ちなみに1982〜92年にかけて「第5世代コンピューター」という国家プロジェクトがありました。私にとっては高校生から大学院にかけてなので、よく覚えています。

 そういう技術が確立されたわけではなく、個々のコンピューターは現時点でも基本は第4世代、これが1990年代以降、冷戦終結とともにインターネットのグローバル商用展開となったわけです。

 日本は世界に先駆けて、PCMの国際特許保持者、猪瀬博先生が率いられる文部省の「学術情報センター」(現「国立情報学研究所」)が独自のネットワーク「学情ネット」(現SINET)を走らせており、その先にネットークラウド〜今日に至る主要な展開があるわけです。

 ビジコンにしても学情ネットにしても、日本は真の意味で世界のパイオニアと言える個人が独創的な働きをして、この分野を牽引してきました。

 逆にだからこそ、長年の同僚でもあった坂村健さんたちの「TRON」を筆頭に、オリジナルな日本の技術は必要以上に米国などに恐れられ、政治的にシェアを制限されるなど、幾多の攻撃を受けてもきました。

 だからと言って、そこで萎縮すべきだとは思わないのです。私自身は1988年に猪瀬先生の下でAT&Tベル研・スタンフォード大学と「音楽と情報科学」という国際シンポジウムを開いた際、学部学生でしたがボードの末席に加えていただきました。

 マックス・マシューズなどいまや伝説となってしまったパイオニアたちから「模倣はしない方がいい。独創たれ! Be original」と励ましてもらい、ちっともはやらない地味な、でも本質的な仕事しかしないようになりました。

 よく書く話ですが、当時工学部長だった猪瀬先生は学部学生の私に「10年かけてシステムインテグレーションなさることをお勧めします」とおっしゃり、確かに10年目に助教授で呼ばれましたので、私自身も選択は間違っていなかったと思います。

 閑話休題、今回のAIブームも、その表層だけを見ていてはつまらないことにしかなりません。

 1970年代のエキスパートシステムから2000年代のクラウド・コンピューティングまでと、2010年代以降の機械学習の本質的な違いは、確率・統計的なクラスタリングと、それに伴うブラックボックス、私の表現では「知の死角」になりますが、ここにポイントがあります。

 ここから高速電子商取引における不正監視のブラックボックス・チェックなどの話題に続けたいところですが、紙幅がつきました。次回稿で展開したいと思います。

(つづく)

筆者:伊東 乾