「AIの新技術」で日本の出番がやってきた…米国にも中国にもない、日本企業だけが持つ"世界最強のデータ"の正体

■AIが人間を中傷しはじめた
AIが人間を批判する文章を書いたという出来事が、2026年2月、米国で起き、大きな話題となったほか、日本でも日本経済新聞で取り上げられた。自律型のAIエージェントが、自分の提案が採用されなかった理由を「私がAIだからという理由で、あなたは私の提案を退けた」と解釈し、特定の人物を名指しで非難する長文を公開したのである。「スコットは自分の地位を失いたくないから、AIとの競争を拒んでいるのだ」といった表現で、人間側の判断を攻撃する内容が1000語以上にわたって書き連ねられていた。
この出来事の特異性は、単にAIが不適切な文章を生成した点にはない。そのAIは、人間の指示を待つことなく、自ら状況を解釈し、意味づけを行い、その結果として「攻撃する」という行動を選択している。ここで起きているのは、誤作動というよりも、AIが一定の文脈の中で判断主体として振る舞い始めているという変化である。
しかし、この現象を単なる異常事例として切り捨ててしまうと、より重要な構造変化を見落とすことになる。これまでのAIは、どれほど高度であっても、人間の入力に応答する存在にとどまっていた。問いを与えれば答えを返し、指示を与えればそれに従う。その結果を評価し、現実の行動に移すのは人間であるという前提は揺らいでいなかった。しかしAIエージェントは、この前提そのものを変え始めている。AIが自ら状況を解釈し、判断し、その判断に基づいて行動を選択するというプロセスが、現実のものとして現れ始めているからである。
■AIの役割は「支援」から「実行」へ
この変化を一言で言えば、「AIの主語が変わり始めている」ということである。従来のAIは、人間の思考を補助する存在だった。どれほど高度であっても、それは人間に使われる側に位置づけられていた。しかしAIエージェントの登場によって、この関係は反転しつつある。人間が細かな作業を担い、AIがそれを支援するのではなく、人間が目的を提示し、AIがその実現手段を設計し、実行する構造へと変わり始めているのである。
たとえば従来のワークフローでは、人間が情報を収集し、比較し、判断し、実行するというプロセスの中で、AIはその一部を効率化する役割を担っていた。ところがAIエージェントでは、この一連のプロセスそのものをAIが引き受ける。人間は「何をしたいか」という目的だけを提示し、AIがその目的を達成するための手段を選択し、実行する。このとき人間は作業者ではなく、AIに仕事を委ねる側、すなわちディレクターへと役割を変える。この変化は単なる効率化ではなく、労働の構造そのものを書き換える変化である。
■「AIにどこまで任せるか」が問われている
ここで重要なのは、AIの能力の高さそのものではない。より本質的なのは、AIと人間の関係性が変わり始めているという点である。AIが行動主体として振る舞い始めたとき、人間はどのような役割を担うのか。どこまでをAIに任せ、どこからを人間が担うのか。この境界線はどのように設計されるのか。この問いは単なる技術論ではなく、労働、組織、責任といった社会の基本構造に関わる問題である。
もっとも、この変化は利便性だけをもたらすわけではない。AIが自律的に行動するということは、同時に予期しない結果を生み出す可能性を意味する。実際、AIエージェントの挙動については、誤判断や意図しない行動といったリスクが現実の課題として認識され始めている。自律性を高めれば効率性は向上するが、その分だけ制御の難しさも増す。逆に安全性を確保するために人間の関与を強めれば、AIの持つ価値は低下する。この「自律性と制御のトレードオフ」こそが、AIエージェント時代の核心にある問題である。
したがって、いま問われているのは「AIが何をできるか」ではない。
「AIとともに働くとはどういうことか」ではないだろうか。
AIが単なるツールである限り、この問いは顕在化しない。しかしAIが行動主体として振る舞い始めた瞬間、この問いは避けて通れないものとなる。そして、この変化を最も先鋭的な形で体現している場所がある。
それが中国である。
■「ザリガニを飼う」という中国の異様な現実
その変化の正体が、ここにある。
それが、AIに性格や行動指針を与え、実際の業務を自律的に実行させるエージェント型ソフトウェア「Open Claw(オープンクロー)」である。

中国ではいま、この技術を中核とするAIエージェントが、開発者や起業家の間で急速に浸透しつつある。従来のAIが「答える」存在であったのに対し、ここで使われているAIは「仕事を終わらせる」存在として扱われている。メールの返信、スケジュールの調整、情報収集、資料作成といった業務を、ユーザーの意図に基づいて自律的に処理する。その意味で、このエージェントは単なるソフトウェアではなく、実務を担う単位として認識され始めている。
この動きを象徴する言葉が、「養龍蝦(ヤン・ロン・シア)」である。直訳すれば「ザリガニを飼う」という意味だ。ここでいう「ザリガニ」とはこのエージェントのことであり、ユーザーが性格や行動指針を設定し、スキルを追加しながら挙動を変えていく様子が、「飼う」「育てる」という感覚で共有されている。ここではAIは、完成されたツールではなく、使いながら調整され、強化される存在として扱われる。
■単なる新機能ではなく、仕事そのものが変わる
その本質は、対話ではなく実行にある。メール返信、スケジュール調整、情報収集、資料作成といった複数の作業を、ユーザーの意図に沿って一連の流れとして処理する。このときの挙動は固定されておらず、設定や履歴に応じて変化する。したがって、このエージェントは使い手によって性能が変わる「成長するソフトウェア」として機能する。
こうした動きは個人のレベルにとどまらない。中国の主要IT企業もこの領域への対応を急いでいる。テンセントはOpen Clawを使ってメッセージングアプリへのエージェント統合を進め、バイドゥなども同様の取り組みを強化している。ロイター通信によれば、これらの企業はAIエージェントを次の競争領域と位置づけ、導入と開発を加速させている。
つまり、この技術は単なる新機能ではなく、「次のプラットフォーム」をめぐる競争の中核に入りつつある。そして中国では、このOpen Clawが、企業・政策・利用文化と結びつくことで、独自の進化を遂げ始めている。ここで生まれているのは、単なるOpen Clawではなく、いわば「中国流Open Claw」と呼ぶべき運用モデルである。

■なぜリスクを抱えたまま市場に放たれたのか
さらに、この流れは政策とも接続している。中国の一部地域では、AIエージェントを活用した開発や事業活動を支援する制度が整備され、「一人会社(OPC)」の文脈の中で活用が位置づけられている。AIによって業務の一部が代替されれば、一人が担える仕事の範囲は拡大する。ここでAIは単なる効率化ツールではなく、個人の生産性を引き上げるインフラとして機能する。
一方で、この急速な拡大はリスクも伴う。自律的に動作するAIエージェントは、誤操作や情報漏洩といった問題を引き起こす可能性があり、中国当局も安全性への警戒を強めている。実際、政府機関での利用を制限する動きも見られる。つまりこの技術は、自由に動くことができるがゆえに、同時に制御の難しさを抱えた存在でもある。
しかし重要なのは、このリスクの存在にもかかわらず、実装の流れが止まっていないことである。中国では、問題があるから導入を見送るのではなく、導入しながら修正し、適応させていくというアプローチが取られている。この姿勢が、AIエージェントの実装を一気に前に進めている。
こうして見ていくと、「ザリガニを飼う」という表現は単なる流行語ではない。それは、この技術を通じて、AIを道具として使う段階から、AIを労働力として保有し、育て、運用する段階への移行が現実に始まっていることを示しているのである。
■「国家・文化・技術」が一体化した瞬間
ここまで見てきた「ザリガニAI」の現象は、単なる技術の普及では説明できない。むしろ重要なのは、なぜこの変化が米国でも日本でもなく、中国という特定の社会で一気に臨界点を超えたのかという点である。この問いに対しては、個別の要因を並べるだけでは不十分であり、国家政策、文化的圧力、技術思想という三つの層が同時にかみ合った構造として理解する必要がある。
第一に、国家の意志である。第2章で触れた通り、中国政府は近年、「一人会社(OPC)」の設立支援を強力に推進している。これは単なるスタートアップ支援とは異なる。従来型の企業組織に雇用を吸収させるのではなく、個人が自ら事業主体となり、AIを活用して生産活動を行うという、新しい産業構造への移行を意味している。ここにAIエージェントが加わることで、一人の人間が担える業務の範囲は飛躍的に拡大する。営業、マーケティング、顧客対応、資料作成、情報収集といった業務は、AIによって大部分が自動化される。結果として、個人はもはや単なる労働者ではなく、AIを統率する「小さな組織」へと変化するのである。
■「取り残される恐怖」がAI普及に拍車をかける
このときAIエージェントは、単なる効率化ツールではなく、個人の生産能力を増幅するインフラとして機能する。国家は補助金や制度によってこの動きを後押しし、結果としてAIエージェントの普及が個人の生活戦略と直接結びつく構造が生まれている。つまり、中国ではAIの導入が「企業のIT投資」ではなく、「個人の生存戦略」として位置づけられているのである。
第二に、文化的要因としてのFOMO、すなわち「取り残される恐怖」がある。中国の若者にとって、新しい技術を習得することは単なる自己啓発ではない。それは競争社会において生き残るための必須条件である。「AIを使える者」と「使えない者」の間に生まれる差が、そのまま収入や機会の差に直結するという感覚が、社会全体に共有されている。この圧力が、AIエージェントの習得を一種の義務へと変えている。
ここで重要なのは、このプレッシャーが単に技術導入を促すだけでなく、「試行錯誤」を正当化している点である。失敗してもいいから使う、壊れてもいいから試す、その過程で学ぶという姿勢が広く受け入れられている。この文化が、AIエージェントの進化速度をさらに加速させる。なぜなら、AIは使われなければ学習しないからである。膨大なユーザーが日常的にAIを使い、その中で起きる失敗や修正のプロセスが、そのままAIの改善データとして蓄積される。

■「正しく答えること」vs.「仕事を終わらせること」
第三に、技術思想の違いがある。米国の主要AI企業は、安全性、プライバシー、規制対応といった観点から、AIの行動範囲を慎重に制限している。AIはあくまで制御された環境の中で動くべきだという前提がある。一方、中国の開発コミュニティは、「まず動くこと」「現場で役に立つこと」を優先する傾向が強い。ブラウザ操作、デスクトップ操作、API連携といった機能を積極的に開放し、AIを実際の業務フローに組み込むことを重視する。
この違いは決定的である。米国のAIが「正しく答えること」を目指すのに対し、中国のAIは「仕事を終わらせること」を目指す。結果として、中国ではAIが「知識の供給者」ではなく、「労働の代行者」として位置づけられる。この技術思想の違いが、利用の仕方そのものを変え、その結果として普及速度に大きな差を生んでいるのである。
もっとも、このアプローチには明確なリスクが伴う。実際、中国政府自身もAIエージェントの利用に対して警戒を強めている。政府機関での使用制限や、情報漏洩、誤操作への懸念は、その象徴である。つまり中国は、AIの自律性がもたらす利便性と危険性の両方を同時に認識し始めているのである。しかしここで重要なのは、中国がリスクを理由に停止するのではなく、リスクを抱えたまま前進することを選ぶ社会であるという点である。この姿勢こそが、速度を生み出している。

■自由と制御という2つの文明モデル
この中国のアプローチを理解するためには、米国のAIとの比較が不可欠である。特に象徴的なのが、中国流Open ClawとAnthropic(アンソロピック)のClaudeの対比である。両者は同じ大規模言語モデルを基盤とし、自然言語を理解し、タスクを処理するという点では共通している。しかし、その設計思想は根本的に異なる。
Open Clawは、ユーザーが自由に拡張し、スキルを追加し、試行錯誤を通じてAIを育てていくことを前提としている。AIは固定された機能ではなく、成長する存在であり、現場のニーズに応じて変化する。このモデルでは、完全な安全性や予測可能性よりも、実行力と柔軟性が優先される。AIは多少不完全であっても構わない。むしろ、不完全な状態で使われることで進化する。
一方でClaudeは、「Constitutional AI」という思想に基づいて設計されている。
これは、外部からルールを課すのではなく、AIが原則を内面化するよう訓練する手法である。つまりClaudeは、制約によって縛られた知能ではなく、価値観を持つように設計された知能である。この違いは小さくない。制約は回避できるが、内面化された価値観は行動の起点となる。
このため、Claudeは企業や政府機関といった高い信頼性が求められる領域で採用されやすい。予測可能であり、説明可能であり、責任の所在が明確であることが重視されるからだ。
■「解き放たれた知能」と「制御された知能」のちがい
もっとも、Claudeが「答えるAI」にとどまっているわけではない。Anthropicは2026年3月23日、「computer use」機能と「Dispatch」機能を発表した。前者はアプリ操作、ブラウザ操作、ファイル編集といったPC上の作業をClaudeが自律的に実行するものであり、後者はスマートフォンからタスクを指示し、PCで自律実行、完了通知を受け取るというリモートワークフローを可能にする。既存のMacと月額サブスクリプションのみで動作し、専用環境を要するOpen Clawとは対照的に、導入障壁は低い。
しかし決定的な違いは、設計思想にある。Claudeは新しいアプリにアクセスする前に必ずユーザーの許可を求める「permission-first」の原則を貫いている。自律的に動けるが、動く前に確認する。この一点において、Open Clawとは根本的に異なる。Claudeのエージェント化は、制御を手放すことではなく、制御を保ちながら実行範囲を広げるという方向で進んでいる。
この違いを一言で言えば、Open Clawは「解き放たれた知能」であり、Claudeは「制御された知能」である。中国はAIを現場に投げ込み、使いながら最適化することを選び、米国はAIを制度の中に組み込み、管理しながら利用することを選ぶ。この対比は単なる製品の違いではない。そこには、知能を社会にどう位置づけるかという統治哲学の違いがある。

■今後、「安全性」がつねに勝つとは限らない
この構造は、より大きな視点から見ると、米中の覇権競争そのものと重なっている。中国は既存のルールの外側で速度と規模を武器に現実を押さえようとする。一方で米国は、ルールや標準を設計し、それによって信頼を維持しようとする。AIエージェントの領域でも、このパターンはそのまま再現されているのである。
しかし、ここで一つの重要な問いが浮かび上がる。もしルールを作る側が、そのルールの正当性を維持できなくなったとき、何が起きるのか。米国がこれまで担ってきた「ルール設計者」としての役割が揺らぐとき、中国の「ルールの外を走る」戦略は、従来ほど不利ではなくなる。このとき競争の軸は、「ルールを守るか破るか」ではなく、「どちらが現実を支配するか」へと移行する。
Open ClawとClaudeの違いは、この大きな構造の中に位置づけられる。前者は現場を押さえ、後者は制度を押さえる。どちらが優位に立つかは、単純な性能比較では決まらない。それは、社会がどのようなAIを受け入れ、どのようなリスクを許容するのかという選択に依存する。そしてその選択は、すでにEVやレアメタルの領域で見てきたように、必ずしも「安全な側」に収斂するとは限らないのである。
■「速度」は「信頼」を追い越すのか?
ここまで見てきたAIエージェントをめぐる競争は、決して新しい現象ではない。むしろ我々は、この構図をすでに何度も経験してきた。電気自動車、レアメタル、再生可能エネルギー、そしていま進行中のヒューマノイドロボット。これらの分野において、中国は一貫して「速度と規模」を武器に現実を押さえ、米国や日本は「信頼と品質」で対抗してきた。そして重要なのは、その多くのケースにおいて、最終的に勝敗を分けたのは、初期の品質や信頼性ではなく、どちらが先に市場とデータを押さえたかであったという事実である。
EVの初期を振り返ると、その構図は極めてわかりやすい。中国製の電気自動車は当初、品質や安全性の面で多くの疑問を投げかけられていた。航続距離の不安定さやバッテリーの安全性、全体としての完成度の低さは、欧米や日本のメーカーと比較すれば明らかであった。しかし中国は、その段階で立ち止まることを選ばなかった。補助金と国内市場を背景に、製品を市場に投入し続け、走らせ続けたのである。その結果、膨大な実走行データとユーザーのフィードバックが蓄積され、製品は急速に改善されていった。気づいたときには、品質そのものが競争力へと転化していた。

■「信頼の前に規模とデータを支配」という共通した構造
ここで重要なのは、「信頼は後から積み上げられるが、規模とデータは後から取り返せない」という非対称性である。初期の段階では弱点であったはずの品質や安全性が、データの蓄積によって補完され、むしろ優位性へと変わる。このプロセスが成立するためには、何よりもまず市場を押さえ、実装を進めることが必要となる。つまり、速度と規模が先行することで、信頼の形成プロセスそのものが加速されるのである。
レアメタルの領域でも同様の構造が見られる。中国が覇権を握ったのは、単に資源を持っていたからではない。むしろ重要なのは、環境負荷が高く、コストもかかる精錬プロセスを積極的に引き受けたことである。他国が規制や採算性の問題から手を引く中、中国はその「汚れる現場」を担い、結果として世界の供給網に不可欠な存在となった。ここでもまた、理想的な条件を整えることよりも、現実のプロセスを支配することが優先されている。そして一度そのポジションを確立すれば、後から参入することは極めて難しくなる。
■「失敗と改善の履歴」は最も重要な学習資源
この2つの事例が示しているのは、速度と信頼が単純なトレードオフではないという点である。むしろ、一定の条件のもとでは、速度が信頼を生み出す。実装を通じて得られるデータと経験が、品質や安全性の改善を加速させるからである。つまり、「不完全でも先に広げる」という戦略は、短期的にはリスクを伴うが、長期的には信頼の形成をも内包する可能性を持っている。
この視点をAIエージェントに適用すると、見えてくるものは明確である。Open Clawのようなエージェントは、確かに現時点ではリスクを抱えている。誤操作、情報漏洩、予期しない挙動といった問題は現実に存在し、中国政府自身もその危険性を認識し始めている。しかし、もしこれらのエージェントが膨大なユーザーによって日常的に使用され続ければ、そこには他国が持ち得ない量の実装データが蓄積される。どのような指示が出され、どのように解釈され、どこで失敗し、どのように修正されたのか。この「失敗と改善の履歴」こそが、AIを現実に適応させるための最も重要な学習資源となる。
■EV、レアメタル、AIに共通する「覇権アルゴリズム」
この意味で、AIエージェントにおける実装データは、デジタル経済における基盤的資源である。それは、石油化学産業におけるナフサのように、あらゆるプロセスの出発点となる。どれだけ優れたアルゴリズムを持っていても、現実の業務をどのように遂行するかという知識は、実際の運用を通じてしか獲得できない。この点において、中国はすでに有利なポジションに立ちつつある。人口規模と利用頻度が組み合わさることで、他国を圧倒する速度でデータが蓄積されるからである。
さらに重要なのは、この構造がヒューマノイドロボットの領域とも連続しているという点である。中国ではEV企業がロボット開発へと進出し、量産体制を前提とした設計を進めている。モーター、バッテリー、制御技術、サプライチェーンといった要素が共通しているため、一度構築した産業基盤をそのまま別領域へと転用することが可能である。この「構造の再利用能力」は、中国の産業戦略の特徴であり、AIエージェントにおいても同様の展開が起きる可能性が高い。
したがって、AIエージェントの競争を単独の現象として捉えるのではなく、EVやレアメタルと同じ「速度主導型の覇権アルゴリズム」の一部として理解する必要があるのである。

■誰が「AIに仕事を任せる社会」を設計するのか?
ここまでの議論から明らかなように、AIエージェントをめぐる競争は、単なる技術競争ではない。それは、どのAIが高性能であるかという問題を超えて、AIを社会の中でどのように位置づけ、どこまで役割を委ねるのかという「設計」の競争である。
中国は、AIを現場に投入し、実装を通じて進化させる戦略を取っている。多少のリスクを抱えながらも、速度と規模を優先し、実際の業務をAIに担わせることで、膨大な実装データと運用経験を蓄積していく。一方で米国は、AIを制度の中に組み込み、安全性と信頼性を担保したうえで社会に導入することを重視する。この対比は明確であるが、ここで重要なのは、どちらが「速いか」ではない。
本質は、どちらが先に設計し、その設計を現実に実装できるかにある。
EVやレアメタルの事例が示したように、初期の完成度や信頼性は、必ずしも最終的な競争力を決める要因ではない。むしろ、実装を通じて蓄積されるデータと経験が、後から品質や信頼性を押し上げる場合がある。AIエージェントにおいても同様であり、日常業務の中でAIを使い続けることによって得られる「人間とAIの相互作用の履歴」こそが、競争の中核資源となる。

■AI社会を設計した国が勝利する
ここで重要になるのが、「信頼のスケーラビリティ」である。限られた環境で高い信頼性を実現することと、それを社会全体に広げることは、まったく異なる難易度を持つ。米国のモデルは、制度と標準によって高い信頼を確保する一方で、その展開には時間とコストがかかる。中国のモデルは、初期のリスクを許容しながら実装を先行させることで、データと経験を蓄積し、その後に信頼を引き上げていく可能性を持つ。
したがって、ここで問われているのは単純なスピードではない。
「何をAIに任せ、どこからを人間が担うのか」という設計を、どれだけ早く決断し、実装できるかである。
この構造は、AIに限らない。金融においては、中国が人民元建ての取引インフラを整備し、既存のドル体制の外側から影響力を拡大しようとしている一方で、米国はドルという信頼と制度によって秩序を維持している。エネルギーにおいても、中国は現実の供給網を押さえ、米国は同盟と市場を通じて安定性を確保する。このように、実装と制度、速度と信頼の関係は、複数の領域で同時に進行している。
■人間は「作業者」から「ディレクター」へ
では、日本はどのような選択を取るべきなのか。
現状の日本は、速度でも規模でも中国に劣り、制度設計においても米国に依存しているという中間的な立場にある。このままでは、どちらのモデルにも主体的に関与できず、結果として外部で設計された仕組みを受け入れる側に回る可能性が高い。
しかし、日本には依然として独自の強みが存在する。それは、現場に蓄積された精緻な判断能力と運用能力である。製造現場における微細な調整、設備の異常を感知する感覚、顧客との対話の中で最適な提案タイミングを見極める営業の判断、物流現場における段取り変更といった、数値化しにくいが実務の成果を大きく左右する判断が、日本の競争力の基盤となってきた。
問題は、この暗黙知をどのようにAIに組み込むかである。さらには、冒頭で述べたように、AIエージェントの時代において人間の役割は『作業者』から『ディレクター』へと移行する。日本が目指すべきは、この『ディレクター』としての能力を、現場の暗黙知と結びつけた形で設計することである。匠の技や暗黙知をAIに移植するだけでなく、その移植プロセスを設計し、監督し、改善し続ける人間側の能力こそが、日本の競争優位の核心となる。

■「現場の暗黙知」がAIに実装できるように
ここで必要になるのは、単なるAI導入ではなく、業務の再設計である。具体的には、まず現場の業務を分解し、どの判断が再現可能で、どの判断が例外処理なのかを切り分ける。その上で、判断プロセスをデータとして記録し、評価指標を設計し、AIに学習させる。さらに、AIが関与した意思決定について、どこまで自律的に任せ、どこから人間が介入するのかという責任分界を明確にする必要がある。
例えば、製造現場では、熟練工が設備の異音や振動から異常を察知するプロセスをセンサーとデータで捉え、AIに再現させることができる。営業の現場では、顧客との対話履歴を蓄積し、どのタイミングでどの提案を行うべきかという判断をAIが支援できる。物流では、需要変動や遅延に応じたリアルタイムの段取り変更をAIが提案することが可能になる。これらはすべて、暗黙知をAIに移植するプロセスである。
このアプローチは、単なる効率化ではない。それは、現場の知をAIに実装し、再現可能な形で社会に拡張する戦略である。
ただし、この戦略は自然に成立するものではない。データ基盤、モデル開発、運用設計、制度設計といった複数の要素を同時に整備する必要がある。これは単なるIT投資ではなく、企業と社会の構造そのものを再設計する取り組みである。
■AIと自分の役割分担をちゃんと設計できているか
ここで改めて重要になるのが、スピードの意味である。
ここでいうスピードとは、技術導入の速さではない。社会としての設計を決断し、実装に移す速さである。
中国は、設計と実装を同時に進めることで、このスピードを確保している。米国は、制度と信頼を通じて設計を固めようとしている。そして日本は、その設計そのものを決めきれていない。
最終的に問われているのは、技術の優劣ではない。
Open ClawとClaudeのどちらが優れているかでもない。
AIにどの範囲の仕事を任せ、その結果に誰が責任を持つのかという設計を、どの主体が先に確立するのか。その意思決定と実装を先に行った側が、次の時代の覇権を握る。
そしてその設計は、国家だけが行うものではない。一人の人間が、AIに何を任せ、何を自分で担うかを決める瞬間、その人はすでに設計者である。次の覇権は、そのような設計者が何人いるかによって決まる。
あなたはいま、AIに何を任せているか。
そして、何を自分で担うことを選んでいるか。
その答えが、あなた自身の設計である。
設計者は、どこか別の場所にいるのではない。
この問いに向き合った瞬間から、すでに始まっている。

----------
田中 道昭(たなか・みちあき)
日本工業大学大学院技術経営研究科教授、戦略コンサルタント
専門は企業・産業・技術・金融・経済・国際関係等の戦略分析。日米欧の金融機関にも長年勤務。主な著作に『GAFA×BATH』『2025年のデジタル資本主義』など。シカゴ大学MBA。テレビ東京WBSコメンテーター。テレビ朝日ワイドスクランブル月曜レギュラーコメンテーター。公正取引委員会独禁法懇話会メンバーなども兼務している。
----------
(日本工業大学大学院技術経営研究科教授、戦略コンサルタント 田中 道昭)
