「アップルの生成AI」がほかとは違う理由
スマートフォン、タブレット、パソコンとユーザーの距離を縮め、生産性を大幅に高める絶妙の仕掛け。
アップルが何年も前から機械学習や深層学習のエンジニアを多数雇用していたことは周知の事実だが、これまでその成果は各製品の限られた機能でしか確認することはできなかった。
動画から文字を認識、抽出する機能や被写体を自動的に切り抜く機能、多重露出した上で合成したかのような、広いダイナミックレンジを捉えた写真、ユーザーの行動を予測した上で必要な情報を適切に通知するなど、それがAIの仕業であると強く意識しない範囲で各デバイスの使い勝手を向上させる部分に、アップルはAI技術開発を行なってきていると思われてきた。
筆者が現地に招かれ取材中の開発者向け会議「WWDC 2024」でも、そうした技術の一部が披露されているが、もっとも驚きをもたらしたのは、アップルが独自に開発したLLM(大規模言語モデル)を元にした機能を、幅広く多くのアプリケーションにまたがって活用できるよう、システムに組み込まれていたことだ。
密かに開発されていた独自LLM
”生成AI”でアップルは出遅れている。
OpenAIやグーグルが発表する相次ぐ生成AI技術、マイクロソフトの積極的な製品へI組み込みといった流れの中で、アップルは一貫してこのトレンドに対して無言を貫いていた。
WWDC 2024直前にブルームバーグは、”アップルとOpenAIが提携”と報じると、さらにこの論調は強調されていたが、その一方で疑問もあった。プライベートな情報を扱う端末を販売し、そのプライベートな情報をサイバーワールドの中で安全に取り扱うことを、アップルはブランドの基本的な価値としてきた。
処理に必要な情報をクラウドにアップロードしなければ機能しないOpenAIのLLMを、製品の中核に置くとは考えにくい。まして彼らの技術にはマイクロソフトがソースコードからアクセスできる。
では何が真実なのだろう?
その答えはWWDC 2024の基調講演で明らかになった。アップルは独自のLLMを開発していたが、このLLMは他の米ビックテックが開発するAI技術とは異なるコンセプトが盛り込まれていた。
オフラインでも利用できるデバイス内で完結する小規模言語モデルと、オンライン時にサーバと連動する大規模言語モデルが(ユーザーが意識することなく)シームレスに連動すること。
クラウドサーバの助けを借りる場合でも、完全な安全性、匿名性を備えるプライベートクラウド技術を用い、パーソナル端末に集まる個人性が極めて高い情報をAI処理のために提供する必要がないこと。
省電力性が高く再生可能エネルギーだけで運用できる独自プロセッサを用いたデータセンターと、デバイス内AI処理による負荷の軽減により、全ての対応アップル製品から無料でLLMのサービスを受けられること。
アップルはこの独自開発したLLMを、製品ユーザーの利便性を高めるため、iPhone、iPad、MacのOSに深く結びつけて開発した。
個人情報を含む異なるアプリの扱う情報を管理するパーソナルAI
言うまでもなく、これらのOSが組み込まれているデバイスは、プライベート、仕事を問わず、所有者が行動する一部始終が集まってくる。どのように友人と関係を築き、どのように仕事を進め、どのようにプライベートを過ごしているのか。
またそれらの情報は特定のサービスやアプリケーションに依存しているわけでもない。例えば一般的なメールやSMS以外にも、さまざまなSNSや付随するメッセージサービスがある。
デバイスの使い方は人それぞれに多様だ。ある約束をメールでした後に、日付や時間の変更依頼がSMSで届き、その返答を別のメッセンジャーサービスから届いたコメントに返信する形で戻す、といった複雑なケースでは、どの連絡手段の中に最新の正しい情報があるかを探すのは困難で、得てして間違いやすい。
スケジュール情報を参照して、チケットの空席確認で移動が間に合いそうな日程を探し、メールで友人と調整した上でアプリで手配を行うと言った場合、やはり複数のアプリにまたがって情報を操り、適切な判断を下してチケットを買った、つもりでも実は間違った日付だったということはないだろうか。
アップルが解決しようとしているのは、端末内で扱うあらゆるパーソナルな情報を、異なるアプリケーション間にまたがって処理し、適切なアドバイスで手助けするための機能だ。
Apple Intelligenceと名付けられたアップルのAIは、こうしたデバイス内での困りごと、人間が不得手とする広範にわたる情報の整理と整合性の確認が行なえる。処理の一部はサーバ側で実行されるが、セマンテックインデックスと呼ばれる情報インデックスを作成することで、ほとんどの処理はオフラインでも動作する。
もちろん、一般的なLLMの利便性が高い機能はApple Intelligenceでも利用可能だ。
テキスト入力可能な部分で、入力中のテキストを選択すると、その文章を清書したり、異なる文体に書き直すことが可能なほか、長文の内容全体を把握したい場合は要約を生成することもできる。
これらの機能は特別なアプリを起動することなく、対応デバイス上のどんなアプリからでも利用することができる。デバイスのOS内に組み込まれ、アプリが呼び出すAPIの中にあらかじめ埋め込まれているからだ。
Apple Intelligenceは汎用人工知能を目指していない
端末内で動作するApple Intelligenceの言語モデルは30億パラメータであり、これはマイクロソフトのCopilot+ PCで動作する言語モデルの33億パラメータと規模的には同等だ。同じようにパラメータ数を整理した小規模のAI技術にはグーグルのGemini Nanoなどがある。
Apple Intelligenceが小規模言語モデルと言い切れないのは、アップルの言語モデルでは、サーバの手助けを得た方が良い場合(オンラインであることが条件ではあるが)、プライベートクラウドでサーバも自動的に連動して大規模言語モデル(LLM)の複雑性も活用できる。
またApple Intelligenceは、OpenAIのGPT-4oのような万能型のAIでもない。LLMにまでスケールはするが、その使い道はデバイスの機能を高めるために特化し、余分な選択肢へとは分岐しない。事前学習に関しても、アップル製品の使い方などの情報は丁寧に正確に答えられるよう調整されている。
”不適切な答え”を出さないようにする配慮は、文章のニュアンスや画像生成などでも徹底されている。
文章のニュアンスは言語や国ごとの作法を重視して学習を調整し、Genmojiというプロンプトで新しい絵文字を生成する機能や、Image Playgroundと名付けられた挿絵などイラストの生成機能では、生成する画像の作風が地域ごとの好みの傾向や文化に根差したものになるよう取捨選択されている。
OpenAIが目指しているのは汎用人工知能だが、Apple Intelligenceはあくまでもアップル製端末の価値、機能性を高める人工知能。この違いは決して小さいものではない。
「ChatGPT内蔵」という誤解
言い換えるならば、Apple IntelligenceにはChatGPTが備えるような、インターネット上に普遍的に存在する知識はあえて持たされていない。それらはプライベートな情報でもなく、また日々更新されていくものだ。
アップルがOpenAIと提携してChatGPTを直接呼び出す機能を、アップル製品に組み込んだのはこのためだ。また”GPT-4o”を組み込んでいるわけではなく、ChatGPTというチャットサービスを呼び出している。
Apple Intelligenceは上記のようにOSの深い部分に組み込まれたものだが、ここで使われるLLMは、Siri”でも”利用できる。Siriは言うまでもなくアップルのボイスアシスタントであり、Apple Intelligenceが利用できるデバイスではSiriがLLMを通じて様々な便利サービスを提供するが、ここまででお分かりの通り、そうしたサービスは端末で管理するパーソナルな情報やアプリを通じた機能を使いこなすために利用する。
「Aさんと約束した横浜スタジアムでの野球観戦のチケットを四枚手配したい」そうしたリクエストはApple Intelligenceがこなし、確認を求めた上で(対応アプリがあるなら)チケット購入の直前まで誘導してくれるだろう。
しかし、新鮮なサーモンの切り身の写真を使って、「この食材を使って簡単なイタリアン料理を作りたいので、いくつかレシピを提案してほしい」といったリクエストはこなすことができない。そこでアップルは、Siriの中でこのような汎用人工知能向きのリクエストがある場合に、ChatGPTを呼び出すかどうか尋ねる。
これこそがOpenAIとの提携のすべてだ。
Siriの中で出されたリクエストは、プライベート情報である写真の識別などはApple Intelligenceが行なうが、レシピの探索はChtGPTに送られ、その結果をSiriがユーザーに伝える。
アップルは将来、同じように医療相談や法務相談など、特定の知識にフォーカスして訓練されたAIサービスとの接続も行なう計画だ。
ライバルとは競合しないLLM
Apple Intelligenceはユーザーのプライバシーを守りながら、日常のタスクをより効率的にこなし、楽しくコミュニケーションする機能をデバイスに提供するが、現在あるほとんどのLLMとは競合しない。
Apple Intelligenceが目指しているのは、より自然で直感的なパーソナルコンピュータ体験という、これまでアップルが得意としてきたジャンルを大きく加速させるもので、ライバルは現時点では存在しない。
すぐにでも試したいところだが、初期のApple Intelligenceは米国市場、それも英語のみをターゲットにしたトレーニングが行なわれており、ベータテストが秋以降に実施される。導入される機能は順次、トレーニングや調整が終わったものからで、全ての機能が揃うのは年末ぐらいになるかもしれない。また他の地域、他の言語での利用は来年以降になる。
利用可能な端末は、iPhoneの場合で推論エンジンが大幅強化されたiPhone 15 Proシリーズ以降(A17 Pro以降)、iPadとMacはM1チップ以降のモデルだ。