LLMを活用した完全自動運転のEV開発を進めるTuringの本社には、「We Overtake Tesla(テスラを追い越す)」というミッションが掲げられている(記者撮影)

2022年11月にOpenAIが公開したAIチャットボット「ChatGPT」は、多くの企業の業務プロセスで利用されるほど、一気に身近な存在となった。この技術の基となるLLM(大規模言語モデル)は、AIの能力を大幅に向上させ、まるでAIが「脳」を持っているかのごとくふるまうことを可能にした。

そんなLLMを、自動運転に応用させようとしている日本企業がある。2021年に創業したTuring(チューリング)だ。

Turingは「We Overtake Tesla(テスラを追い越す)」をミッションに掲げ、完全自動運転のEV開発を進める。山本一成CEOは、過去にコンピュータ将棋プログラム「Ponanza」を開発。山本氏と共同で創業した青木俊介CTO(最高技術責任者)は、アメリカのカーネギーメロン大学で博士号を取得し、自動運転システムの開発・研究に従事してきた。

2024年2月には、生成AIの基盤モデルを開発する事業者向けに経済産業省などが行う支援事業に、唯一「製造業」の企業として採択された。今回の助成を受け、約7.4億円相当のGPU(画像処理半導体)の計算資源も活用し、開発を進める。

レベル5の完全自動運転を目指す

自動運転はその段階に応じてレベル1〜5に分けられる。現状、多くの市販車はレベル2などが中心で、アクセルやブレーキ、ハンドルの機能が部分的に自動化されている段階だ。

Turingが目指しているのはレベル5。あらゆる条件下ですべての運転操作を自動化する、完全自動運転だ。その実現に向けて、なぜLLMに目を付けたのか。

これまで自動運転の手法は大きく2つあった。1つは、レーザー光を車体に取り付け、その周囲に反射させる「LiDAR(ライダー)」という技術で、周りにある物体を3次元で認識する手法だ。

センサーベースの高精度な3次元の地図をあらかじめ作成しておき、車のセンサー情報と合わせて、今どの辺にいるかを観測する。この手法は、ロボット掃除機などにも使われている。

2つ目は、2010年後半に普及した、カメラと深層学習のAIモデルを組み合わせた手法だ。複雑なセンサーや事前の地図情報の取得を必要とせず、画像認識ベースで周囲の障害物の有無や位置情報などを全部調べることができる。

ただ、これらの手法では完全自動運転を目指すうえで限界があった。

TuringでAI開発全般のマネジメントを行う山口祐氏は「従来の手法でも9割程度は実現できるが、道路では子供の飛び出しや、見たことないような標識などが当然のようにいろんなところで出てくる」と話す。

完全自動運転では、このような稀なケースにも完璧に対応しないといけない。視覚情報だけでの対処には限界があり、人間が普段運転しているときに頭で考えるような、幅の広い認知・思考能力などが必要になるという。

そこでTuringが考えたのが、LLMの活用だった。

Turingでは、まず言語を理解するLLMから画像や音声なども認識するマルチモーダルへ、そして空間把握や身体性を認識するAIを経て、完全自動運転AIへの発展を目指す。

難しい場面でも人間に近い選択が可能

Turingは昨年、OpenAIのLLM「GPT-3.5 Turbo」を使って車を制御する実験に取り組んだ。

例えば車のカメラが前方の状況を撮影し、ドライバーが「○○してください」などと話すと、それを音声認識技術でテキストに起こしてGPT-3.5 Turboに渡す。GPT-3.5 Turboは、撮影された画像やテキストの情報に基づいて、目的地までの経路などに関するパスを出し、計算する。


LLMを用いて行った実験の様子(写真:Turing)

この実験では赤色、青色、黄色のカラーコーンを設置して、「バナナと同じ色のコーンに行って」と抽象的な命令を出しても、正解を選ぶことができた。

また、トロッコ問題のようにどの進行方向を選んでも犠牲者が出てしまうような場面では「どっちに行ってもけがをするので、一旦停止します」と動かない状態になった。

複雑な状況を解釈できるマルチモーダル生成AIや高速な半導体、車体制御まで行える自動運転AIシステムなどがそろえば、将来的にはこのような倫理的な判断もできるようになる。

「われわれ人間は、運転中に稀なシチュエーションに遭遇しても、運転していないときに学習した経験などを応用して対応できる。それと同じ対応を目指すには、非常に広範な知識や常識のようなもの、さらに思考能力が必要になってくる」(山口氏)

ただ、英語圏で学習したGPTなどは、日本の交通環境に関する情報や交通常識が欠落している。自動運転で活用する以上、国ごとの交通常識などを身に付ける必要がある。Turingでは、マルチモーダル開発ツール「Heron」で学習を行う同社独自のLLMの開発を続ける。

LLMで完全自動運転を達成するためには、それ専用の半導体チップも必要となってくる。そこでTuringは2023年12月、半導体チップと車載用LLMアクセラレーターを開発するチームを発足させた。


音声を認識し、どういうアクションをするべきか推論する(写真:Turing)

半導体の自社製造を決めた背景には、車ならではの制約があることが大きい。

例えばスマホでChatGPTを使う場合、基本的にはネットワークを介して通信を行う仕組みになっており、応答までに数秒のラグがある状態だ。チャットボットの応答なら数秒のラグがあっても問題ないが、時速100km(1秒間で約30メートル)で進むような車では、そのラグは致命的となる。

また、車は夏場に70℃を超えたり、冬には氷点下になったりすることもある。このような環境下では、普通のサーバー用の半導体チップはまるで動かない。さらにGPUに使われるメモリーは振動や電磁波に弱く、通常のGPUでは運転中の振動により壊れてしまう。

エヌビディアも車載向けGPUなどを出しているが、サーバー向けのハイエンドなGPUに比べると性能が10分の1になってしまうという。これでは自動運転で1秒間に10回など推論させるとなると、スピードが追いつかない。そうした欠点を埋めるためにも、自分たちで専用の半導体を作るしかないという決定に至った。

世間に受け入れられるためのハードル

Turingが開発している半導体は、同社が作るAIモデルでしか動けないが、推論が速いという。既存技術の積み重ねで開発を進めており、具体的な性能の検証段階に入っている。

技術的な達成度合いを高めていったところで、完全自動運転が世間に受け入れられるためには、乗り越えなければならないハードルがある。倫理観の問題だ。

この先AIの精度がさらに向上しても、数学的に「100%」の正解を実現するのは難しく、自動運転での事故も0にできるとは言えない。

「例えば、人間による運転よりもAIだと事故率が10分の1になったらどうかなど、社会的に許容されるラインはどこになるのかを常に考えている。技術の積み重ねや法整備などに関する議論を進めつつ、世間の人に丁寧に説明していく必要がある」(山口氏)

Turingは、完全自動運転EVの量産開始の目標時期を2030年と定める。山口氏はこれを「スマホみたいな車」と表現する。

かつてAppleは、iPhoneをハードウェアだけじゃなく、ユーザー体験を考えたようなソフトウェアまで一貫して作ったことで、世界的な普及に成功した。Turingも、EVとAIモデルを垂直的に統合したかたちで開発を進め、自動車業界での革命を見据えている。

(武山 隼大 : 東洋経済 記者)