【西田 宗千佳】「iPhone16」本当に「見送り」で正解なのか…じつは、実機検証で判明した「外観だけでは見えづらい大進化」

写真拡大 (全12枚)

実機に触れてみた

アップルは9月20日から、iPhone新製品である「iPhone 16シリーズ」を発売した。

同社は今回のiPhoneを「Apple Intelligence時代に向けたもの」と位置付けている。Apple Intelligenceとは、同社が開発中の生成AIを使った機能群のことで、アメリカでは10月から、日本では2025年以降に導入するとされている。

発売初日から使えるわけではない技術が新製品の軸であるとは、どういうことなのだろうか? そして、それ以外の部分はどう変化/進化のだろうか?

新製品の実機を用いて検証しつつ、9月13日に米国で現地取材した発表会で語られた戦略と合わせてお伝えしたい。

見送り? もったいない!

見た目だけでいえば、iPhone 16シリーズは、昨年発売されたiPhone 15シリーズと大差はない。最上位モデルに当たる「iPhone 16 Pro Max」のみ、画面サイズが若干大型化しているが、両者を並べて比べてみないと気づきにくいレベルだ。

二つ折りや薄型化などの派手な要素は含まれていないので、「今年は見送り」と考える人もいるかもしれない。

そういう判断もアリだが、個人的には「もったいない」とも感じている。なぜなら、今年の改良点は「中身」に集中しており、外観だけでは見えづらい変化が大きいためだ。どういうことか?

ベンチマークに現れたiPhone 16の特質

以下のグラフは、AIがおこなう「推論処理」を高速化する「Neural Engine」についてのベンチマーク結果だ。

昨年の上位モデルである「iPhone 15 Pro Max」との比較だが、大幅に性能が向上しているのがわかる。

CPUは?

では、CPUはどうか?

以下はCPUに関するベンチマークの結果だが、Neural Engineほど劇的な進化はしていない。

アップルの判断

さらに、次の画像もご覧いただきたい。

ベンチマークテスト中、すなわちiPhoneプロセッサーに高い負荷をかけている最中と、テストが終わって4分後の状況を、サーモグラフィで撮影したものだ。左がiPhone 15 Pro Maxで中央が16 Pro Max、右が16である。

iPhone 16と16 Pro Maxは15 Pro Maxに比べ発熱が低く、より速く熱が引いているのもわかる。

これらからは3つのことが見えてくる。

1つ目は、iPhone 16シリーズが「AIの推論処理を中心に強化されている」ということ。

2つ目は、発熱を抑え、放熱を重視した設計がなされていること。

そして3つ目は、スタンダードモデルである「16シリーズ」と上位モデルである「16 Proシリーズ」の性能差が、例年に比べて小さいことだ。

後述するが、ProシリーズにはProシリーズの価値がある。しかし、一般的な用途で使ううえでの性能でいうなら、iPhone 16世代は「スタンダードモデルでも差を感じづらい」設計になっている、ということでもある。

アップルはなぜこのような判断をしたのだろうか?

アップル製品全体で活用される機能

ポイントは、冒頭で挙げた「Apple Intelligence」にある。

Apple Intelligenceとは、簡単にいえば、「アップル製品でパーソナルアシスタントを実現するためのAI群」である。

最も広く使われるのはiPhone向けとなるだろうが、MacやiPadなどにも対応しており、アップル製品全体で活用される機能になっていく。

できることは複数ある。

Apple Intelligenceに何ができるか

いちばんわかりやすいのは「写真の検索」かもしれない。

現在もアップルやGoogleの写真管理ツールでは、「食べ物」「地名」「人の顔」などで検索ができるようになっている。それらはAIが写真の中を解析し、なにが写っているのかを判断し、検索用のデータベースにしているから実現できている。

しかし、シンプルなキーワードや地名情報だけでは意外と不便なものだ。

Apple Intelligenceでは、この解析能力が劇的に進化する。「サッカーをしている娘」「机の上に置かれたチャンピオン・ベルト」「先週のバーベキュー」のように、自然文かつ複雑な内容でもちゃんと検索できるようになる。

Apple Intelligenceに組み込まれた画像解析用の生成AIが、いままで以上に詳細に画像を解析し、検索情報としているわけだ。それだけでなく、動画もすべてのコマが検索対象になるので、動画の中にあるしぐさなども検索対象になる。

Siri」も進化する!

音声アシスタントである「Siri」も進化する。重要なのは「人間のラフな物言いにちゃんと対応してくれる」ということだろう。

一般的に音声アシスタントとの対話では、言い間違ったり言いよどんだりすると会話が続かない。「わかりません」といわれたり、思ってもみない反応が返ってきたりもする。

そんな体験があるからか、我々は音声アシスタントに話しかける「前」に、どう命令するのかを考え、文章にして話しかけている。「どんな命令なら答えてくれるか」を考えてから話すことも多いだろう。

これはかなりストレスを感じる行為で、音声アシスタントの大きな欠点でもあった。

しかし、Apple Intelligenceが組み込まれると、人間が深く考えずに話す、ちょっとラフな言い方でもスムーズに答えてくれる。「賢くなった」という話とも違う。より人間との対話に近くなった、といえるだろうか。

他にももちろん、「いかにも生成AI」という感じの機能もある。

多彩な機能

文章の要約や翻訳ができる「作文ツール(Writing Tools)」や、オリジナルの絵文字を文章から作る「ジェン文字(Genmoji)」、メールツリーを要約して、どんな会話なのかを教えてくれる機能などが搭載されていく。

これらの機能を背後で支えているのがApple Intelligence、ということになる。

メインメモリーの重要度

機能の内容を見ればおわかりのように、Apple Intelligenceが扱う情報のほとんどは、個人のプライベートな内容を含む。それらをクラウド生成AIで扱うと、プライバシー情報をAIにアップロードすることとなる。

プライバシー保護の観点からいえば、望ましいものではない。

同様の課題は、個人向けデバイスで生成AIを使おうとしているメーカーすべてが抱えている。

そこで最近、注目が集まっているのが「オンデバイスAI」だ。デバイス内のプロセッサーだけで処理を完結し、データはクラウドに送らないというやり方である。

Apple Intelligenceも基本的には「オンデバイスAI」で動作する。そのため、AIの推論能力と、AIの処理に必要なメインメモリーの量がより重要になってくる。

冒頭で示したベンチマークの結果は、このことを示している。

Apple Intelligenceが動作するのは、「iPhone 15 Proシリーズ」と、「iPhone 16シリーズ」「同 16 Proシリーズ」に限られる。これらの機種は高性能なNeural Engineを搭載しており、メインメモリーも8GBと大きめになっている。

そのうえで、昨年のモデルであるiPhone 15 Proシリーズよりもさらに処理能力を強化し、日常的にサクサクと使えることを目指したのがiPhone 16、ということになるだろう。

とはいうものの、課題も1つある。

アップルの姿勢

アップルは、Apple Intelligenceを慎重にテストしながら提供する姿勢でいる。

アメリカ英語でのテストは今年8月から段階的に進められているものの、一般公開は10月だ。それも、一部機能に限定してのスタートで、フル機能の提供は「年内」とされている。

日本語での提供開始は「2025年」。最短でも4ヵ月、おそらくはもっと待つ必要がある。

だとすれば、開始後にユーザーの反応をみてからiPhoneを買い替えてもいい……。そう考える人もいそうだ。

事実、前述のApple Intelligenceで実現する機能についても、生活の中で使ってどれだけ便利で正確か、という点はまだわからない。さらに技術開発が必要になる可能性だってある。

そうすると、Apple Intelligenceに向けて中身を刷新したとはいっても、「今年のiPhoneを選ぶ理由は薄い」と考えることもできる。

新しい魅力

もちろん、アップルはそのことも考えている。

そこで同社は、カメラの機能を同時に改善した。画質も上がっているが、そこだけが優位な点ではない。

新しいカメラ用のインターフェースとして「カメラコントロール」を搭載したのだ。

外見的には出っ張りのない細長いボタンで、内部にはボタンだけでなくタッチセンサーと振動機能が内蔵されている。それによって多彩な操作が可能になった。

まずは、以下の動画をご覧いただきたい。これは、カメラコントロールによる操作を撮影したものだ。

「ジワジワと動かす」か「サッと滑らせる」か

押すとカメラアプリが起動し、さらに押し込めば「シャッターを切る」動作になる。

だがそれだけでなく、左右に指を滑らせると「ズームの切り替え」となり、軽くダブルタップすると「カメラ設定の切り替え」になる。

これらの操作は従来、「画面のタッチ」でおこなってきた。もちろん、そちらでも操作はできる。

ただ、一眼カメラなどのように「被写体に集中して撮影する」なら、シャッターの来る位置に操作が集中しているほうが望ましい。

カメラコントロールはそれを狙ったものだ。

ただ、いままでにない操作方法なので最初は戸惑う。カメラの物理スイッチほどわかりやすくはないが、コツがわかれば問題はないレベルだ。

ズームや露出変更などをおこなう場合には指を左右に滑らせるのだが、「ジワジワと動かす」操作と「サッと滑らせる」操作では意味するところが違う。

たとえば、ズームの場合だと、サッと滑らせると「0.5倍」「2倍」などの光学ズームが効くキリのいいところへ動き、その中間で止めたい時にはジワジワ動かす。

タッチパッド的な操作ではなく、あくまで「スライド」だと思うと理解しやすいだろう。

ドラマチックな映像

iPhone 16 Proシリーズは、さらにカメラにこだわっている。

動画では4K・毎秒120コマでの撮影が可能になった。テレビもPCも毎秒60コマまでが基本なので、120コマは過剰なように見える。

しかし実際には、「途中で好きな部分の再生速度を変える」使い方ができるようになっている。30コマ・24コマに落とすと、その部分だけスローでドラマチックに見えるのだ。

データ量は多くなるが120コマで撮影しておき、あとからスローにして……という使い方が操作しやすいだろう。

また、昨年は最上位の15 Pro Maxのみに搭載されていた「光学5倍の望遠」撮影が、16 Pro・16 Pro Maxの両方で可能になっている。サイズだけで好みの機種を選べるようになった。

さらに、16 Proのカメラのみ、「レンズゴースト」を軽減する機能も搭載されている。レンズゴーストとは、撮影時にレンズ内で反射して生まれる光のことで、写真に「本来は存在しない光」を残してしまう原因となる。

以下の写真は、iPhone 15 Pro Maxと16 Pro Maxで同じ場所を撮影したものだ。15 Pro Maxには空中に「存在しない光」が大量に写っているが、16 Pro Maxではほとんど見受けられない。

もちろん、これらは「付加価値を求める人向け」のもの。iPhone 16にもカメラコントロールはあるし、十分高画質なカメラではある。そのあたりを勘案するのが、機種選択のヒントになりそうだ。

みんな感じている「じつはわかりづらい」生成AIの使い道…ビッグテックが爆走中の「使いやすさ向上レース」と沈黙するアップルの「次の手」