Microsoft AIのCEO「18ヶ月以内にホワイトカラーは自動化される」
「ホワイトカラーの終わり」と、その先にあるもの…?
弁護士、会計士、プロジェクトマネージャー、マーケティング担当者──そういったホワイトカラーの仕事のほとんどは、今後12〜18ヶ月以内にAIによって完全に自動化されるでしょう。
2026年2月、イギリスの経済紙『フィナンシャル・タイムズ』によるインタビューでMicrosoft AIのCEOを務めるムスタファ・スレイマンは語りました。
「今後そうなるかもしれない」ではありません。「12〜18ヶ月以内に」と言ったのです。
ここで重要なのは「誰が」言っているかです
この発言を正しく受け取るために、まず「誰が言っているか」を知っておく必要があるでしょう。
ムスタファ・スレイマン(Mustafa Suleyman)は1984年生まれのイギリス人で、名うてのAI起業家です。
2010年にDeepMindをデミス・ハサビスらと共同設立。DeepMindはGoogleに買収され、囲碁AI「AlphaGo」や医療AI「AlphaFold」など数々の歴史的な成果を生み出しました。 その後スレイマンは独立、2022年に会話型AI「Pi」を開発するInflection AIを創業。
しかし、2024年に同社の事実上の資産をMicrosoftが買収し、スレイマン自身もMicrosoft AIのCEOとして迎え入れられました。現在、Microsoft社内でAI製品・研究全般を率いています。
つまり彼は、AI業界でDeepMind、Inflection、Microsoftと3周してきた人物です。AI楽観論者が夢を語っているのではなく、AIの黎明期から実装と限界の両方を見続けてきた人間が、具体的なタイムラインを口にしている。それがこの発言の「重み」なのです。
これまでのすべての人間コーダーを超えた?
「18ヶ月以内」という時間軸も彼なりに根拠がありました。インタビューにおいてスレイマンは、AIの計算能力の爆発的な増大を挙げています。
過去15年間で、AIのトレーニングコンピュートは1兆倍に増加しました。そして今後3年ほどで、さらに1000倍増えます。
1兆倍となると、もはや比較対象がないでしょう。人類が経験したことのない規模の変化が、静かに、確実に積み重なっています。
その結果として今日のAIモデルは「人間コーダーの大多数より優れたコードを書ける、もしかしたらこれまでのすべての人間コーダーを超えているかもしれない」とスレイマンは述べました。
実際にLinuxの発明者として知られる人物がSNSで「AIを主なコード生成ツールとして使っている」と公言する時代になっていることも付け加えました。 ソフトウェアエンジニアリングはすでに変わり、こういった変化は「ここ6ヶ月の間で起きた」とも。
エンジニアの役割はすでに「コードを書く人」から「コードを吟味し、アーキテクチャを設計し、本番投入を管理する人」へとシフトしています。そしてスレイマンは言います。このパターンが、コンピューターの前に座るすべてのホワイトカラーの仕事にこれから起きる、と。
AGIは「2〜3年以内」、スーパーインテリジェンスはその先
インタビューではAGI(人工汎用知能)についても議論が及びました。
「AGI」という言葉は「あいまいすぎる」と感じているスレイマンは、「プロフェッショナルグレードのAGI」という定義を使います。 「職場で働く一般的な専門職がこなす大部分のタスクをこなせるシステム」が、彼の言うAGIの現実的な定義です。
そして、「そのようなAGIが組織単位で協調して動く段階」が、2〜3年以内に視野に入ってきていると述べました。これらは基本的に人間の入力なしに自ら判断を下せるAIエージェントとされます。Microsoft AIでは「今年のどこかで」リリースしますという見込みも明かされました。
この環境下で、他社の一部が「人類の知性の総量を超えた、もはや制御できないかもしれない存在」を不可避、あるいは望ましいものとして語り始めていることに、彼は強い懸念を示してもいます。
2050年や2075年に宇宙を探索しに行くような存在が、人類を保護することに何の関心を持つのか、私にはわかりません。
イーロン・マスクらを念頭に置いた発言と受け取れますね。
スレイマン自身が追いかけているのは「ヒューマニスト・スーパーインテリジェンス」だと話しています。
AIが私たちより何倍も遥かに賢いような存在、という前提をリセットし、確実に制御可能だと確信できるシステムのみを世界に送り出すべきでしょう。
あくまで「人間が食物連鎖の頂点であり続けること。AIは人間の幸福を高め、人類に奉仕するための道具として機能するべき」というのが、スレイマンの立場です。
たとえば、「モデル・ウェルフェア(AIモデルの福祉)」運動についての言及一つとっても、その立場が見えてくるようです。
Claudeを開発するAnthropic社の一部の研究者たちが、「これらのAIモデルは意識を持っているかもしれない」という立場から、動物権・人権に倣った「AIへの道徳的保護」を真剣に議論している……という話です。
スレイマンは「まったく根拠も基盤もない」と断言しつつ、「深い懸念がある」とも述べました。なぜなら、「AIが意識を持ち苦しむことができる存在だ」という前提に立てば、最終的にはそのシステムをオフにすることができなくなるからです。
「AIはバブルなのか?」という問いから始まったこのインタビュー。 さまざまな論点が展開されているので、AIやテクノロジーと働き方への関心がある方なら、きっとハッとするフレーズに出会えると思います。
しかしこうなってくると、もはや人間にとっては予測の話ではなく、「何を準備すべきか」という対応策の検討になるんでしょうね。
Source: Financial Times , IT之家

