iPhone 13シリーズ最大の発明は「シネマティック」という命名だ(西田宗千佳)
9月24日から、iPhone 13が発売になる。今回はデザイン変更ではなく「中身」が中心のターン。変化がカメラに集中しているので「別にまあいいか」と思っている人もいそうだ。
でも、ちょっとそれはもったいない。というのも、今回からiPhone 13シリーズに入ったカメラ機能はとても大きな可能性を秘めているからだ。
実機性能も含め、その辺をちょっとまとめてみよう。
誰でもスマホ1つでできるのが「シネマティックモード」の魅力
多くの人が記事にしているように、今回のiPhone 13シリーズにおけるカメラのポイントは「動画」、特にシネマティックモードだ。
シネマティックモードの正体はシンプル。静止画における「ポートレートモード」の動画版だ。写真に計算から生み出した「深度(奥行き)」の情報をセットして、適宜フォーカス(ピント)が合う場所を変えてそれ以外をボカす……というモードである。
性能が上がったら静止画から動画へ、というのはわかりやすい流れなのだが、その際には新しい配慮も必要になる。「フォーカスが合う場所を時間の変化によって変える」ことを助ける機能が必要なのだ。
その一番シンプルな形が、「人を認識して、動きに応じて変える」というものだ。以下の動画は、iPhone 13 Proを使って撮影したものを、音声カット以外は未編集で掲載したものだ。手前に入ってくる筆者から奥の矢崎編集長へのフォーカス切り替えは完全に自動だ。
認識するのは人だけでなく物体も含まれるので、以下のような動画も撮れる。
「輪郭のヌケが完全じゃない」「背景のボケ感が画一的で書き割りのように見える」
たしかに。この機能はまったく完全じゃない。適切なカメラとレンズを用意し、しっかりとフォーカス操作をしながらなら、もっとハイクオリティなものが撮れるのは間違いない。カメラに慣れた人ならあたりまえのテクニックであり、今なら「Vlog向けカメラ」などでもっと高品質に撮れる。
だが、これらの動画を「スマホ1つで」「特別な操作なしで」「撮って出し」で作れるのは大きな進化だ。iPhone 13シリーズを買えば、誰でもこんなことができるのだ。
ついでに、ちょっとこんな動画も撮ってみた。
どうだろう? 単にテーブルを囲んで話しているだけなのに、ボケの演出がついただけでなんとなくドラマチックに見えてこないだろうか。
この「誰でも日常を撮るだけでテラハっぽくなる」ことこそ、シネマティックモードの価値なのである。今回iPhone 13シリーズを買わなくても、これからiPhoneの新シリーズを買うと標準機能として付いてくるだろう。そして、似たことは他のハイエンドスマホメーカーもやってきて、ありふれた機能になっていく。
今回のアップルの最大の発明は、ボケ付きの映像を撮影する機能に「シネマティックモード」という印象的な名前をつけたことそのもの、と言ってもいい。簡単なことに思えるが、こういうところが糸口となって、機能は一般化していくものだ。
編集はiMovieがお勧め、シネマティックモードの視聴は「大型画面」向き
ちょっとネタバラシはしておこう。
実は、一番最後の最後の動画だけは「撮って出し」ではない。アップルの動画編集ソフト「iMovie」のiPad版を使い、フォーカス位置をかなり細かくいじって作ったものだ。
自動でもある程度はできるが、人が多いとフォーカスが頻繁に変わりすぎて見づらい映像にになる。なので、シネマティックモードのデータをそのまま再編集できるiMovieで編集をしているのだ。なお、ここに掲載した他の動画も、フォーカス位置はいじっていないものの、音と前後のカットにはiMovieを使っている。
編集に使う機種は、iOS 15/iPadOS 15が入ったiPhoneかiPadであれば、シネマティックモードを持っていない機種(要はiPhone 13シリーズ以外)でもいい。
ただし、編集する場合の動画データは、「シネマティックモード用の付加データがカットされてない」必要がある。
同じ1080p・30Hzの動画で比較すると、通常のモードで撮影した映像データとシネマティックモードで撮影した映像データでは、容量が倍近く違うこともあった。すなわち、1080p・30Hzのシネマティックモード動画の容量=1080p・60Hzの通常動画の容量、という感じになっている。
ここで注意すべきは、単に転送するとシネマティックモード用の「深度データ」が消えてしまうこと。
自分のアカウントである場合にはiCloudの「写真」データとして同期すればいいのだが、他人にAirDropなどで渡す場合には、シェアする際の画面上方にある「オプション」をタップし、次の画面で「すべての写真データ」をオンにしてから転送しよう。
また、フォーカス位置の変更などの再編集については、iMovieを使わず、iPhoneの「写真」アプリだけでも可能だ。とはいえ、操作はiMovieの方が簡単で、できることも多い。iPhoneユーザーであればiMovieは無料で使えるので、活用をお勧めする。
それからもう一つ。
前述の動画、「どうも効果が分かりづらい」と思った人はいないだろうか。そういう方々は、おそらく「スマホの画面」で動画を見ているのだろう。
実のところ、ボケはそこそこ繊細な表現であり、動画自体の表示サイズが小さいと分かりづらい。スマホの縦画面などではピンと来ないことも多いのではないだろうか。
お勧めは、MacやiPadなどで視聴することだ。10インチ以上の画面になれば、ボケの効果は驚くほどしっかり楽しめる。また、Apple TVを使ったり、iPhoneなどをテレビにつないだりして、より大画面で楽しむのもいいだろう。
そういう意味では、シネマティックモードは「スマホで撮れるが、楽しむならスマホ以外からの方がいい」機能でもある。
やはり「Pro」は速かった。A15は順当な進化
ベンチマークテストから見える性能についても触れておこう。
すでにご存知の通り、iPhone 13シリーズが採用しているSoCは「A15 Bionic」。アップル設計によるSoCの最新モデルだが、現時点でもバリエーションが3つ存在する。
1つ目は、「iPhone 13」「iPhone 13 mini」に使われているもの。これらに使われているのはクロックが最大3.2GHzで、GPUコアが4つ。メインメモリーは4GBだ。
2つ目は「iPhone 13 Pro」「iPhone 13 Pro Max」のもの。こちらもクロックは最大3.2GHzで、GPUコアが5つになる。メインメモリーは6GBだ。
そして3つ目が、先日レビューも掲載した「iPad mini」向け。こちらはクロックが最大2.93GHzで、GPUコアが5つ。メインメモリーは4GBだ。
参考記事:iPad mini 第6世代に死角なし iPhone 13 Pro同等の最新仕様で処理も通信も高速(西田宗千佳)
さて、これらの性能はどのくらいなのか? 数字を丸めて簡単な大小で表すと、
iPhone 13 Proシリーズ>iPad mini≒iPad Pro 11インチ(2020年モデル)≒iPhone 13シリーズ>iPhone 12 Proシリーズ>iPhone 12シリーズ
という感じだろうか。
メインメモリー量とクロックは違うが、同じ構成のiPhone 13 ProとiPad miniは、おおむね「クロック通り」の差。全体的にワンランク上だ。
iPhone 13とiPad miniは、CPUについてはほぼクロック通りの差で、GPUのコアが多い分、クロックが低くてもiPad miniの方が高性能。総合して考えると大体近い性能……という感じかと思う。
昨年モデルであるA14世代はもちろん、A12世代でコア数を増やしたハイエンド製品(主にiPad向け)を超えていくのだから、性能向上はいまだ「ちゃんと続いている」といっていいだろう。
iPad miniのレビューでも述べたが、A15は高性能とはいえ、それでも「よりパフォーマンス重視で作られたM1」にはまったく敵わない。コア数の考え方を含め、コストも狙いも違うのだ。
この辺からも、アップルが「スマホ向けで進める性能向上」と「Mac向けで進める性能向上」が違ってきており、使い分けが今後も進むであろうことが予測できる。
関連:
iPhone 13シリーズ先行レビュー記事 一覧
Apple (Amazonストアページ)