iPhone 7 Plusカメラの背景ボケ機能、iOS 10.1ベータで提供開始。一般リリースもまもなく?
アップルが iOS 10.1 のパブリックベータテストを開始しました。iOS 10.1では iPhone 7 Plus だけの目玉機能でありながら発売には間に合わなかった、人物の背景がボケる被写界深度エフェクト(ポートレートカメラ)が使えるようになります。
iPhone 7 Plus カメラの被写界深度エフェクトは主に人物を撮影する際、顔にはっきりとピントを合わせつつ、背景をきれいにぼかす機能。
従来の画像編集アプリでも、背景までピントのあったスマホ写真の一部に後から「レンズぼかし風フィルタ」などを適用することでそれらしい写真を作ることはできました。しかし実際の奥行きや焦点距離を無視した擬似的な再現のため、前景と背景の境界などが不自然になります。
iPhone 7 Plus では「2つのカメラと先進的な機械学習を使って」、本格的なレンズのカメラで撮影したような効果を自動的に適用できます。
iPhone 7 発表キーノートでのフィル・シラーによる説明では、デュアルカメラと機械学習(による被写体認識)で場面の奥行きを求め、背景部分にだけボケを適用する原理です。
(蛇足ながら、写真テクニックにおける背景ボケの「ボケ」は日本語から英語に輸入されたため、英語でも " Bokeh "。ローマ字綴りのBokeを英語発音するとボゥクになってしまうため、元の日本語発音に近く読ませるよう、末尾にhをつけたBokehの綴りが使われています。しかし、すでに英語になって久しいため人によりボゥケィやボカーなどさまざまに発音するようです。フィル・シラーは「ボカー」派)。
正式リリース前の使い方や条件をまとめると、
・被写界深度エフェクトは撮影モードのひとつ「ポートレート」でのみ適用できます。すべてのカメラモードで選べるわけではなく、「ポートレート」専用の機能です。(撮影モードの名前は「ポートレート」ですが、iPhone を横にしたランドスケープでも撮影できます。)
・撮影モード「ポートレート」では自動的に「望遠」レンズの画角になります。
・被写体をカメラからある程度離して、かつ一定距離(240cm)以内に置くよう求められます。
・一定の明るさが必要。暗いと奥行き推定が働かないためか、写真自体は撮影できますが被写界深度エフェクトが有効になりません。
・被写界深度エフェクトを適用できる距離の場合、ライブビュー下の「被写界深度エフェクト」の文字がハイライトされ、背景ぼかし効果をリアルタイムにプレビューできます。
・被写界深度エフェクト有効で撮影した場合、エフェクトありの写真となしの写真が2枚保存されます。
モード名「ポートレート」とあって、あくまで人物用に最適化されているようですが、顔や人体を認識しないと発動しないわけではなく、被写体と背景の距離があれば有効になります。感覚をつかめば、テーブルの上の小物を撮る場合などにも使えるモードです。
(ベータ版で試したかぎり、デュアルレンズの視差や画角差のみを元にシンプルな演算で奥行きを認識しているのではなく、限られたデータから被写体の形状やシーンも推測してソフトフォーカスを適用する挙動のようです。ここがキーノートでも触れられた「機械学習」の部分かもしれません。
条件によっては、レンズからの距離が同じでピントが合っているべき面を一部だけ誤ってぼかしてしまうエラーもありました)。
ポートレートカメラを含むiOS 10.1アップデートの一般提供スケジュールは公式には未定。iPhone 7 Plus 製品ページでも「まもなく登場」の表示のままです。
なお、パブリックベータは誰でも参加できるとはいえあくまで未完成ソフトウェアのテストであるため、ポートレートカメラのUIや性能、撮影条件も含め、このままの形で一般向けに提供されるとはかぎりません。
一方で、iOSの開発者ベータ配布からパブリックベータ配布までは従来ある程度の間隔を置くことが多かったところ、今回の iOS 10.1アップデートでは例外的にわずか1日でパブリックベータテストが始まりました。この調子ならば正式リリースもさほど遠くないかも、と期待することはできます。
カメラの奥行き効果は、タッチでSuicaなどが使えるApple Pay 対応と並んで iPhone 7 / iPhone 7 Plus の目玉機能であるにもかかわらず、現状はどちらも更新待ちで試せない状態。早く完成度を高めて誰でも使えるようになってほしいものです。
iPhone 7 Plus カメラの被写界深度エフェクトは主に人物を撮影する際、顔にはっきりとピントを合わせつつ、背景をきれいにぼかす機能。
iPhone 7 Plus では「2つのカメラと先進的な機械学習を使って」、本格的なレンズのカメラで撮影したような効果を自動的に適用できます。
iPhone 7 発表キーノートでのフィル・シラーによる説明では、デュアルカメラと機械学習(による被写体認識)で場面の奥行きを求め、背景部分にだけボケを適用する原理です。
(蛇足ながら、写真テクニックにおける背景ボケの「ボケ」は日本語から英語に輸入されたため、英語でも " Bokeh "。ローマ字綴りのBokeを英語発音するとボゥクになってしまうため、元の日本語発音に近く読ませるよう、末尾にhをつけたBokehの綴りが使われています。しかし、すでに英語になって久しいため人によりボゥケィやボカーなどさまざまに発音するようです。フィル・シラーは「ボカー」派)。
正式リリース前の使い方や条件をまとめると、
・被写界深度エフェクトは撮影モードのひとつ「ポートレート」でのみ適用できます。すべてのカメラモードで選べるわけではなく、「ポートレート」専用の機能です。(撮影モードの名前は「ポートレート」ですが、iPhone を横にしたランドスケープでも撮影できます。)
・撮影モード「ポートレート」では自動的に「望遠」レンズの画角になります。
・被写体をカメラからある程度離して、かつ一定距離(240cm)以内に置くよう求められます。
・一定の明るさが必要。暗いと奥行き推定が働かないためか、写真自体は撮影できますが被写界深度エフェクトが有効になりません。
・被写界深度エフェクトを適用できる距離の場合、ライブビュー下の「被写界深度エフェクト」の文字がハイライトされ、背景ぼかし効果をリアルタイムにプレビューできます。
・被写界深度エフェクト有効で撮影した場合、エフェクトありの写真となしの写真が2枚保存されます。
モード名「ポートレート」とあって、あくまで人物用に最適化されているようですが、顔や人体を認識しないと発動しないわけではなく、被写体と背景の距離があれば有効になります。感覚をつかめば、テーブルの上の小物を撮る場合などにも使えるモードです。
(ベータ版で試したかぎり、デュアルレンズの視差や画角差のみを元にシンプルな演算で奥行きを認識しているのではなく、限られたデータから被写体の形状やシーンも推測してソフトフォーカスを適用する挙動のようです。ここがキーノートでも触れられた「機械学習」の部分かもしれません。
条件によっては、レンズからの距離が同じでピントが合っているべき面を一部だけ誤ってぼかしてしまうエラーもありました)。
ポートレートカメラを含むiOS 10.1アップデートの一般提供スケジュールは公式には未定。iPhone 7 Plus 製品ページでも「まもなく登場」の表示のままです。
なお、パブリックベータは誰でも参加できるとはいえあくまで未完成ソフトウェアのテストであるため、ポートレートカメラのUIや性能、撮影条件も含め、このままの形で一般向けに提供されるとはかぎりません。
一方で、iOSの開発者ベータ配布からパブリックベータ配布までは従来ある程度の間隔を置くことが多かったところ、今回の iOS 10.1アップデートでは例外的にわずか1日でパブリックベータテストが始まりました。この調子ならば正式リリースもさほど遠くないかも、と期待することはできます。
カメラの奥行き効果は、タッチでSuicaなどが使えるApple Pay 対応と並んで iPhone 7 / iPhone 7 Plus の目玉機能であるにもかかわらず、現状はどちらも更新待ちで試せない状態。早く完成度を高めて誰でも使えるようになってほしいものです。