【連載】福嶋亮大「メディアが人間である」 第9回:パラ知能としての生成AI――あるいは言語ゲームの多様性
21世紀のメディア論や美学をどう構想するか。また21世紀の人間のステータスはどう変わってゆくのか(あるいは変わらないのか)。批評家・福嶋亮大が、脳、人工知能、アート等も射程に収めつつ、マーシャル・マクルーハンのメディア論やジャン・ボードリヤールのシミュラークル論のアップデートを試みる思考のノート「メディアが人間である」。第9回では、生成AIを人間に「並行」する≪パラ知能≫であると位置付けた上で、人間の言語とAIの言語の違いを、ウィトゲンシュタインが提示した「言語ゲーム」と「生活形式」という概念で読み解く。
第1回:21世紀の美学に向けて第2回:探索する脳のミメーシス第3回:アウラは二度消える第4回:メタメディアの美学、あるいはメディアの消去第5回:電気の思想――マクルーハンからクリストファー・ノーランへ第6回:鏡の世紀――テクノ・ユートピアニズム再考第7回:21世紀の起源――人間がメディアである第8回:モデル対シミュレーション
1、目的から生成へ
私は第5回で「機械の時代から電気の時代へ」というマクルーハンの歴史観を取り上げたが、それで機械の問題が解消されたわけではない。それどころか、21世紀はむしろこの問題を大々的によみがえらせたと言ってよい。「人間の労働はいずれ機械に置き換えられるのではないか」「機械が知性的にも人間を支配するのではないか」という古風な問いが、生成AIの進化にともなって再浮上しているのは、周知のとおりである。
機械が人間を凌駕する――そう聞くと、われわれはついチャップリンの映画『モダン・タイムズ』で描かれたような、機械の歯車に組み込まれた不自由な人間を連想しがちである。知能爆発を果たしたAIが絶対的な主人となり、人間がそれに服従するという極端なシンギュラリティ論は、その最新版と言えるだろう。しかし、これはかなり誇張された考え方であり、知能爆発の根拠となるムーアの法則を無制限・無批判に拡大していることにも、大きな疑問符がつく(※1)。結局のところ、実際に懸念されるべきなのは、人間支配に駆り立てられた「悪いAI」ではなく、AIを悪用する「悪い人間」であり、さらにはAIの発明する「事故」のほうだろう。だからこそ、行政でもビジネスでも学問でも、AIを倫理に沿って有効に機能させるためのアーキテクチャの設計が急務なのだ。
ともあれ、われわれを取り巻くのは、人間を一方的に締め上げる≪硬い機械≫ではなく、エレクトロニクスと融合して人間の多様な欲望を追尾しつつ商品に変える≪柔らかい機械≫である。この新しい機械論の性質は、まさに「生成」という標語に凝縮されている。20世紀の共産主義が上からの「目的」や「計画」を掲げたのに対して、21世紀アメリカのテック・ジャイアンツは表向き、ユーザーの自由を最大限に尊重するような企業理念を掲げる(第2回参照)。このテロス(目的)なき風土から、ユーザーの多様な要求にそのつど即時的に反応する「生成AI」が出てきたのは、決して偶然ではない。
トップダウンの「目的」がボトムアップの「生成」に置き換えられること――それは政治思想の文脈では、リベラリズムの浸透と共振する。リベラリズムの基本的な考えは「善の構想はひとそれぞれ」ということにある。共通善を排するリベラルの理念において、国家は個々人の魂の問題に干渉してはならない。善は国家がトップダウンで教え込むものではなく、あくまで自律的な個人の行為と選択によって、おのずと「生成」されるべきものだ。プラトンの『国家』をはじめ古典的な政治学が、魂の問題にコミットしたのとは逆に、リベラリズムは魂の問題を個人に委ねた。それによって、生(身体)の管理を統治の基盤とする「生政治」(ミシェル・フーコー)はいっそう加速することになる。
アメリカ発のITが急速に拡大したのは、たんに技術的に優れていたからというだけではなく、そのテロスなき「生成」の志向が、リベラリズム(さらには個人の自由の価値を強調するリバタリアニズム)の望む社会観と合致していたからである(※2)。このリベラルな技術社会においては、上からの「強制」は表向き嫌われる。生成AIは無定形(フォームレス)であり、ユーザーのプロンプトにあわせて、そのつど具体的な言語や画像を生成するが、命令がなければ抽象的なデータとプログラムの集合体にすぎない。つまり、生成AIは一方的に命令を下す主人ではなく、命令を下される使用人として随時姿を現しながら人間をコントロールする≪柔らかい機械≫なのだ。
※1 ジャン゠ガブリエル・ガナシア『そろそろ、人工知能の真実を話そう』(伊藤直子監訳、早川書房、2017年)44頁。加えて、ガナシアはカーツワイルのシンギュラリティ論を、あるがままの自然と身体の超越をめざしながら、真の神の到来を待望するグノーシス主義的な「神話」として位置づけている(88頁以下)。同種のデジタル・グノーシス主義は、メタバースやAI、ミラーワールド等の分野でも見出せるだろう。
※2 その一方、中国やロシアの指導者に言わせれば、リベラリズムは目的をもたないという目的を強制したあげく、人間を精神的に堕落させる有害な思想にすぎない。今やいかに権威主義的な国家であったとしても「民主主義」を完全に撤廃することはできない。プーチンや習近平の政権も、民意を失えば、たちどころに存亡の危機に陥るだろう。それに対して「リベラル」と「民主主義」のデカップリング(切り離し)が比較的容易であることは、近年のilliberal democracy(非リベラルな民主主義)の勃興からも分かる。詳しくは、拙著『ハロー、ユーラシア』(講談社、2021年)参照。それらの国家では「生成」のテクノロジーは、非リベラルな政治体制と衝突しないように再調整されるだろう。
2、「怪しい隣人」としてのAI
この柔軟性ゆえに、生成AIはいわば人間の隣人として現れる。私がこの連載で「鏡」や「影」や「シミュレーション」という語を多用してきたのは、この≪柔らかい機械≫の隣人性を捉えるためである。生成AIとチャットするとき、それは人間に似ているとも、似ていないとも言える。それは鏡像を見て「これはいつもの自分だ」と思うこともあれば、どうもしっくりこないこともあるのと同じである。
人間の知能を部分的に模倣しながらも、それと完全には一致しない新種の知能――私はそれをひとまず≪パラ知能≫、つまり人間に「並行」する知能と呼びたい。なぜこのような言い方をするかと言えば、この隣人性や並行性を見逃すと、議論はたいてい不毛な紋切り型に陥ってしまうからだ。
例えば、AIやテクノロジーをめぐって、一方には、技術は人間を画一化された「一次元的人間」(マルクーゼ)に変え、現状を変更するための批判能力を喪失させるという昔ながらの疎外論がある。そして他方には、AIはむしろ人間の知をエンハンス(強化)し、場合によっては徳をも涵養するという技術的な楽観論がある。前者がAIと人間を峻別し、前者を危険な「敵」と見なすとしたら、後者は賢いAIを愚かな人間を導く「教師」と考えるのだ。
このうち、前者の議論は必ずしも間違っているわけではないが、その有効性をかなりの程度失っている。AIを批判し、人間の知能を聖別しようにも、すでに人間の知能そのものが情報技術と広告産業の環境のなかに取り込まれて久しい。われわれは人間の知性のデジタル化、つまり「凡庸化」をまずは受け入れるべきである。さもなければ、テクノロジーに汚染されない人間の本来性なるものを幻想的に設定するお決まりの疎外論(さらには人間中心主義)に陥るだけだろう。
その一方、後者についても誇大広告という難点がある。AIはせんじ詰めれば膨大なデータを用いて計算する数理モデルであり、明らかに万能ではないのに、まるで、人間のさまざまな限界や課題を超越する魔法の杖のように扱われている。しかし、AIが徳を復活させるとか、お金で価値を計測する時代を終わらせるとか、いずれ人類の未来を予言し始めるとかいう摩訶不思議な主張の数々――どれも私が最近目にしたもの――は、ほぼ何の根拠もないハイプ(誇大広告)ないしスネークオイル(蛇の油のようなインチキ万能薬)にすぎない(※3)。これらのデタラメな広告的言説においては、たんに論者の願望が新しいテクノロジーに投影されているだけである。
私が≪パラ知能≫という呼び名を提案するのは、このような不毛な疎外論や誇大広告から逃れるためである。AIは全知全能の神ではない。それは人間に並行する知能であり、ゆえに人間を一方的に抑圧することも、人間を新人類に劇的に生まれ変わらせることもない。ただ、この人間との並行性ゆえに、AIに対する認知はしばしば混乱し、無根拠な過大評価が横行することにもなる。結局のところ、われわれを戸惑わせているのは、至高の神ではなく、人間から半歩ずれた「怪しい隣人」なのである。
※3 特に、AIが未来を予知できるというのは典型的な誇大広告である。機械学習に基づく「予測AI」の開発は進められているものの、目立った成果をあげておらず、この点では、短期間のうちに驚くほどの進歩(社会的なリスクの増大も含め)を遂げた生成AIとは比較にならない。「生成AI(generative AI)とは対照的に、予測AI(predictive AI)はしばしばまったく役に立たない」。Arvind Narayanan & Sayash Kapoor, AI Snake Oil, Princeton University Press, 2024, p.9.
3、唯名論の勝利
このいささか奇妙なパラ知性のもたらす認知上の混乱を鎮静化するのに、哲学の考えが役立つだろう。ここでは言語のテーマに絞ってみたい。
もとより、コンピュータの実行する記号的な操作にはどこか皮相なイメージがつきまとう。それは、電子的な記号演算が、その背後にある実在物との対応を志向していないからである。哲学史の文脈に置き換えれば、それは実在論(リアリズム)ではなく唯名論(ノミナリズム)がコンピュータの思想において優勢であることを意味する。J・D・ボルターがかつて指摘したように「コンピュータの思想は唯名論の勝利である。コンピュータが取り扱う記号はそれだけでは無意味である。なぜならば記号の「背後」にあってそれを支えるべき実体がないからである」(※4)。
インターネット上の人間の言語使用にも、この「記号の背後」をもたずに動作する唯名論が根をはっている。現に、Aという情報を与えられれば自動的にBと反応する、ほとんどボットのように訓練されたアカウントは、ソーシャルメディア上では珍しくない。ユーザーは実在(背後)の有無を気にせず、記号に対する記号の反応だけで、いつまでも書き込みを続けることができる。そのとき、ユーザーが人間なのか機械なのかは判別が難しくなるだろう。
このような唯名論的な記号操作は、大規模言語モデル(LLM)を用いた生成AIにおいて、いっそう顕著になる。この数理モデルは大量の文書データの用例を学習したうえで、ユーザーの入力した文に続く確率の高い語を出力する。語と語の関係を大量に学習することによって、現実をまったく体験したこともないAIが、驚くほど巧みに自然言語を使いこなしているように見えるのだ。
それは、いわゆる記号接地問題(記号と現実の結びつきを問う問題)にも新しい展望を与える。常識的には、現実世界への接地を欠く記号の連なりは意味を欠く(=AIは意味を理解せずに演算結果を出力している)ように思えるが、哲学研究者の鈴木貴之が指摘するように、大規模言語モデルはその常識への反証となっている。なぜなら「大規模言語モデルは、記号接地を欠いているにもかかわらず、さまざまな自然言語処理課題をかなりの程度に実行できるからである。言語上のやりとりを見るかぎり、人間と大規模言語モデルのあいだには、決定的な違いはないように思われるのである」(※5)。
もとより、意味の定義を――つまり「意味の意味」を――考えるのは、それ自体が難問である。「意味」そのものが多義的なので、一つの「意味」には収束しない(哲学者のジャン゠リュック・ナンシーに言わせれば「意味の意味」に統一性を与えるのは不可能である(※6))。記号と現実の対応を「意味」の根拠と見なすならば、大規模言語モデルに基づくAIは意味を理解していないことになる。しかし、鈴木が言うように、語の意味を「高次元空間におけるベクトル」と見なすならば(※7)、語と語の共起確率を表現する大規模言語モデルも、意味=方向をもつことになるかもしれない(ちなみに、フランス語のsensには「意味」だけではなく「方向」の意味がある)。
いずれにせよ、現状の生成AIは(それが望ましいかは別にして)言語のノミナリズム的な操作だけでも――つまり実在物にまったく接触しなくても――外見上は有意味な自然言語を用いることができる。このような知性的な機械の出現は、「意味の意味」にも何らかの修正を生じさせるのではないか。
※4 ジェイ・デイヴィッド・ボルター『チューリング・マン』(土屋俊他訳、みすず書房、1995年)117頁。
※5 鈴木貴之『人工知能の哲学入門』(勁草書房、2024年)170頁。
※6 渡名喜庸哲「ナンシーとレヴィナス――sensについて」『レヴィナス 顔の向こうに』(青土社、2024年)121頁。
※7 鈴木前掲書、146頁。
4、多様な言語ゲームの交差
ここまで来れば、人間の言語とAIの言語を峻別する根拠は次第に弱くなってくるように思える。この両者の言語には、表向きは決定的な違いはない。しかし、それでも両者では何かが違うという印象も依然として残る。だとしたら、何が違うのか。
この問題を考えるのに、ウィトゲンシュタインが提示した「言語ゲーム」と「生活形式」という概念は今なお有効だと思われる。というより、生成AIの登場によって、ウィトゲンシュタインの考えがより具体的かつ鮮明に捉えられるようになったと言うべきだろう。
よく知られるように、ウィトゲンシュタインは『哲学探究』で、言語を話すことを「一つの活動ないし生活形式の一部」と見なし、その探究のために「言語ゲーム」という概念を導入した。彼にとって、言語ゲームは本源的に「多様」である。その多様性は「言語という道具とその使い方の多様性、語や文章の多様性」と切り離せない(23節/『哲学探究』の引用は大修館書店刊[藤本隆志訳]を参照したが、訳語を一部変更した)。言い換えれば、言語そのものは存在しない。ただ、そのさまざまな使い方(ゲーム)があるだけだ。
そして、この「使い方」を規定するのが「生活形式」(Lebensform)である。生活形式とはあらかじめ言語に与えられた環境であり、いかなる言語もその外に出ることはできない。つまり「活動」から独立した言語は存在しない。ウィトゲンシュタインは生活形式(活動)を具体的に定義するわけではないが、それはおおむね次の「自然史」という概念と対応するだろう。
命令し、問い、話し、しゃべることは、歩いたり、食べたり、飲んだり、遊んだりすることと同様、われわれの自然史の一環なのである。(25節)
ここでAIの問題に戻ろう。大規模言語モデルに基づく生成AIも人間も、一見すると同じ言語を同じように使っている。しかし、それぞれの言語の根ざす「生活形式」は根本的に違っている。それは、両者が異なる「自然史」を歩んできたことと関わる。
人間は協働の道具として言語を利用するという長い「自然史」を歩み、そのプロセスで言語を用いて「命令」したり「おしゃべり」したり「質問」したりするという用法を発明してきた。それに対して、生成AIはコンピュータの進化という「自然史」のなかで――さらには唯名論的な情報環境という「生活形式」のなかで――記号の「接地」を考慮することなく言語を使用する。より正確に言えば、AIそのものは生(生活)をもたないので、その言語使用はいわば「生活なき生活形式」に先行されている。
繰り返せば、現状のAIは語と語の共起確率をもとにして、文を出力する。そのような演算的な言語使用は、われわれの「生活形式」にも部分的に含まれるが、AIはそれを純化させたのだ。その反面、AIはその「生活なき生活形式」ゆえに「命令し、問い、話し、しゃべること」をしない。それはAIが「歩いたり、食べたり、飲んだり、遊んだり」しないのと同じである。さらに、AIはある対象を新たに「名指し」(命名)することもしない。ウィトゲンシュタインは名指しを「神秘的な出来事」と呼んで、それを「対象に洗礼を施すようなもの」と形容した(38節)。AIの言語ゲームはこのような「神秘」や「洗礼」とは今のところ無縁である。だが、逆に言えば、いずれAIの「生活なき生活形式」に応じて、人間と無縁の新たな言語使用が現れるかもしれない。
この場合、機械と人間の言語ゲームが異なるからと言って、お互いを理解できなくなるわけではない。AIからの情報の取得をチャットの形式に落とし込めば、機械の言語ゲームは人間の言語ゲームにひとまず翻訳されるだろう。それでも、生活形式の差異やギャップは消えない。言語という道具を、人間とはあくまで異なる使い方をする≪パラ知能≫が現れたこと――それが言語の歴史における画期的な事件なのである。
ウィトゲンシュタインをフランスで初めて紹介した古典学者のピエール・アドは、かつて「われわれよりも古代人のほうが、複数の言語ゲームのあいだの差異に対する鋭敏な感覚を有していた」と指摘した(※8)。今日、われわれに求められているのは、まさにこの言語ゲームの多様性に対する敏感さである。AIを蔑視したり(子どもでも知っていることを知らない!)、逆にAIを神的な装置(あらゆることを知っている!)としてあがめたりする、そのようなありふれた態度は、AIという隣人の言語ゲームを不当に評価している。そもそも、言語ゲームどうしのあいだに優劣があるわけではない。言語ゲームはたんに多様なのであり、われわれはその事実を尊重するべきなのだ。
むろん、生成AIそのものは今後も進化し、今とは異なる多くの機能を獲得するだろう。それでも、生活形式(自然史)に根ざした差異は決して消えることはない。ただ、両者の言語ゲームが完全に異質ということにもならない。なぜなら、両者の言語ゲームは、ウィトゲンシュタインふうに言えば「家族的」に類似しているからである。複数の言語ゲームは相互に隔絶しているのではなく、むしろ「互いに重なりあい、交差しあう」(67節)。このような言語思想の重要性を際立たせた点で、生成AIは教育的な「隣人」なのである。
※8 ピエール・アド『ウィトゲンシュタインと言語の限界』(合田正人訳、講談社、2022年)136頁。

