アップルもSiriも変わっていく。現地で見たWWDC24の「例年と違った」ところ
アップルの次期OSの詳細やApple Intelligenceが発表されたWWDC24。例年と比べるとだいぶ様子が変わってきています。
現地で取材をした筆者が、今年のWWDC現地の様子をお伝えしつつ、Apple Intelligenceで何ができるかをお届けしましょう。
世界のアップル系アプリ開発者の祭典WWDC
WWDCっていうのは元々デベロッパー(開発者)のためのイベントなので、我々メディアはオマケです。以前は日本円で約17万円もするチケットを買って、世界中から約6,000人ものエンジニアが集まって、次期OSの詳細を聞いたり、「こんな機能をOSにつけてよ!」と言ったりできる貴重なイベントでした。
が、2020年からは感染症の影響で、基本オンラインに。基調講演は動画になり、ラボやフォーラムなどのセッションもオンラインで行われるようになりました。「世界中に居ながらにしてアップルのエンジニアと話せるんだからこれでいいんじゃね?」ということで、デベロッパーにもそれなりに好評だそうです。
で、現地には、抽選で選ばれた1,000人弱(筆者の目算)と、同じく1,000人ぐらいのメディアだけが参加するようになりました。6,000人も入るコンベンションセンターを借りるのをやめて、本社であるApple Parkの広場でやろうってことですね。
「秘密主義者」の様子も少し変わってきたかも
でも、これってビックリで、2022年には、これまで我々メディアも一切入れなかったRingと呼ばれる本社に一部入れるようになって、庭に置かれた巨大スクリーンでKeynoteを見ることができるようになったワケです(2017年以降、秋のiPhoneの発表会はSteve Jobs Theaterで行われていましたが、それ以外の場所には一切行けませんでした)。
取材で移動している時も、以前はカメラを出すと睨まれたのですが、そういう傾向も少しずつ緩やかになっているかも。フィットネスセンターなども、今年は撮影NGではなかったので、ウェブに上がる写真のバリエーションも増えていると思います。
そして、今回特に面白かったのは、iJustineや、Marques Brownleeなどの超有名(それぞれ、登録者数710万人、1900万人)YouTuberを壇上に上げたセッションがあったこと。iJustineとクレイグ・フェデリギ、ジョン・ジャナンドレアなどのSVPが、Steve Jobs TheaterでApple Intelligenceについて話すセッションは我々も取材できたのですが、Apple Intelligenceについていろいろ理解して欲しいというスタンスが感じられて興味深かったです。
Mac Caféの3階で食事をしていると、Marques Brownleeがいて、ついミーハーにも一緒にセルフィーさせてもらいました。
iPhoneやMacの、これまで日常で不便だったところが快適に
というヨタ話はさておいて、Apple Intelligenceについてもいろいろ取材してきました。
これは、「生成AI」という文脈で考えると、ミスリードされる気がします。むしろ、Apple Intelligenceが使えるようになると、iPhoneやMac、そしてその上で動くSiriがとびきり便利になると思った方がいい。
我々は慣れてしまっていますが、13年前に登場したSiriや、そのルーツが22年も前に遡る連絡先アプリなど、OSの純正ツールアプリはあまりにも古くさいものになってしまっています。「Hey Siri !」と言って、何かコントロールしている人が、どれぐらいいるでしょうか?
日本語入力システムを含む、テキスト入力の仕組みもそうです。ここ3〜40年、我々はポチポチとキーを打って入力をするしかなかったのです。
しかし、アップルが生成AIの仕組みを上手く取り込んだことで、それらはまさに魔法のように動作するようになるはずです。
従来のSiriは英語の方が上手く動作しましたが、生成AIを利用していれば言語の壁は低くなるので、やっと日本語でもスムーズに動作するようになるはずです。
もちろん、生成AIですから、文面を考えたり、要約したり、翻訳したりもお手の物です。
Siriが急に賢くなるかも。文脈を踏まえて話せるように
たとえば、
「ジャイアンツの調子はどうですか?」
と聞くとちゃんと答えてくれます。さらに、
「次の試合はいつ? それをカレンダーに追加して」
とお願いすると、ジャイアンツと言ってなくても、ちゃんとさっきの会話の続きだと判断して(文脈を読んでくれるわけです)、現在時刻から次にあるジャイアンツの試合スケジュールを探し出して、それをカレンダーに追加してくれます。
そして、自分のカレンダーに重複するイベントがあれば、そのことについても指摘してくれます。
Apple Intelligenceは、セマンティック(意味論的)インデックスをiPhoneやMacの中に生成し、「私」が誰で、「弟」が誰で、その人がどういう顔をしているのか(写真アプリで名前が設定してあれば)理解しています。
「弟と、湘南にサーフィンに行った時の写真を集めて、スライドショーを作って」
と言えば、「弟」が写っていて、位置情報が湘南で、「サーフィン」をしている写真を集めて、サーフィンに相応しい音楽を付けてスライドショーを作ってくれます。
電話がかかってきた時に、
「今の電話番号を、綱藤さんで登録しておいて!」
で、登録してくれます。
今、iPhoneで電話番号登録するのって、けっこう面倒じゃないですか。あの手間がないってわけです。もちろん、それだけでなく、いろいろな操作を自然言語で行えるようになるはずです。
メール返信の文面だって考えてくれる
文章作成もかなり便利に。
たとえば、パーティーのお誘いが来た時も、行くのか、行かないのか? パートナーはいるのか? など、いくつかの質問に答えると、自動的に返事を作ってくれます。
例で見たのは英文のシンプルなメールだったので、日本語の礼儀にかなったメールが作れるのかどうかはまだ分かりませんが、もっとビジネスライクにしてとか、フレンドリーにして欲しいとか、そういうオーダーはできるようです。
我々のこういうウェブ原稿も誤植がつきものなのですが、Apple Intelligenceがあれば、もう誤植はなくなります。Apple Intelligenceが入れた校正をぜんぶ一括で反映することもできますし、「なぜこの校正が入ったか」をいちいちチェックしながら、修正するか、しないかを決めることができます。
プライバシーを保ったChatGPTとのやりとり。プロンプトも不要
選択的にChatGPTと連携させることも可能なので、「ドラゴンと、ピンク色のウサギが大活躍する1,200文字の童話を書いて」というオーダーも可能です。
Apple Intelligenceは個人情報保護のために、基本的にはiPhoneやMacの中でプライバシーを担保した状態で動作するのですが、デバイスの中で処理しきれないオーダーが入ったら、Private Cloud Computeという仕組みを使って、アップルが用意したPrivate Cloudで処理します。
このやりとりは完全に暗号化されており、演算で必要な情報だけをサーバー側に送り、処理します。このサーバーはApple Siliconで構成されていますが、ストレージを持っておらず、処理が終わったら情報は完全に消去されます。保存もされないし、AIの学習データとして使われることもありません。
さらに、ChatGPTに一部のデータを送る場合も、ChatGPTに送ったということをユーザーに明示した上で演算に必要な情報だけを送ります。
たとえば、スーパーで大根の山積みになった写真を撮って
「この野菜を使ったレシピを10個教えて」
と言った場合、おそらく画像認識はデバイス側で行って、「大根のレシピを10個」という情報だけが、ChatGPTに送られるはずです。
ChatGPTなどを使う場合は、プロンプトを上手に考える必要がありますが、この場合はApple Siliconがプロンプトも作って送ってくれるので、レシピの精度を上げるために、何か他の情報(もしかしたら、季節や気温などの情報かもしれないし、最近作った料理かもしれません)を追加で送る可能性はあります。
アップルの「パーソナル・インテリジェンス」をポケットに
いずれにしても、iPhoneやiPad、Mac自体がかなり便利になりそうなことは確かです。
これまで、巨大なサーバーで、文章を生成したり、絵を生成したりするのが、主な生成AIの使われ方でした。しかし、今回登場したApple Intelligenceはそれとは少し違う。手元のiPhoneやiPad、Macで動作して、足りなければクラウドや、場合によってはChatGPTの力を借りる。でも、主眼は手元で動くパーソナルなAIです。
アップルは「パーソナル・インテリジェンス」という言い方もしています。
iPhoneや、iPadや、Macが、今より便利に、我々の生活を支えてくれそうです。
Photo: 村上タクタ
Image: Apple