グーグル「Pixel 4」は先端テクノロジースマホ! 天体撮影からレーダージェスチャーまで驚きの最新技術

写真拡大 (全12枚)

グーグルがオリジナルのスマートフォンを出していると言うことをご存じだろうか?

古くは、グーグルが開発した「Android」標準モデルとして
「Google Nexus」(以下、Nexus)シリーズの「Nexus One」が2010年に発売されている。

Nexusは、比較的標準的なハードウェアで構成されたスマートフォンおよびタブレットで、Android上で動くアプリケーションやハードウェアの参照モデルとして開発者が利用したりしたほか、過去にはNTTドコモ(以下、ドコモ)やソフトバンクが製品ラインナップに加えたこともあった。

その後、グーグルは、2016年に画面サイズが異なる2つのAndroidスマートフォン「Google Pixel」および「Google Pixel XL」を発表。Pixelシリーズは、グーグルのコンシューマ向けのスマートフォンとしてブランディングし、後にNexusシリーズを廃止している。

日本市場においては、2018年に「Google Pixel 3」と「Pixel 3 XL」をSIMフリースマートフォンとして発売。また、ドコモとソフトバンクがSIMロック版の同製品の取り扱いを発表した。

このようにグーグルはAndroidのOSだけを提供しているのではなく、古くからスマートフォンなどのハードウェアも発売している。日本市場においては、グーグル製スマートフォンであることを明確にアピールしたのは、昨年発売のPixel 3シリーズからである。


Google Pixel 3(2018年発売)
それに伴って、TVCMもよく目にするようになった。


このためか、
「グーグルが最近スマートフォンをやり始めた」という認識が一部で持たれているのかも知れない。

なお、Pixelシリーズ以前は、サムスン電子やLGエレクトロニクス、モトローラ、ASUS、HTCが開発・製造を行っていた。これは、あくまで標準的なAndroidスマートフォンおよびタブレットなどのデバイスという製品であったためである。

Pixel以降、グーグルの最新ハードウェア、ソフトウェアを搭載した最先端デバイスという立ち位置となった。

一方で、高価なハイエンドスマートフォンであるPixel 3シリーズのほかに、価格を抑えた今年5月にはミドルレンジの「Google Pixel 3a」と「Google Pixel 3a XL」を発売した。

Pixel 3aシリーズは、ベースとなるカメラ性能や日本向けのおサイフケータイ(FeliCa)対応継承しつつ、購入しやすい価格帯のシンプルなスマートフォンとしての魅力を訴求している。


多くのスマートフォンが2つのカメラを搭載するなか、Pixel 3はシングルカメラだった


他社のスマートフォンとPixelシリーズを比較すれとハードウェア的には一見地味だが、グーグルが開発する最先端のソフトウェアやOSのバージョンアップをいち早く利用できるようになることが魅力である。

特に、最先端のハードとソフトに加えて、力を入れているのがAI(人工知能)だ。カメラ機能やGoogleアシスタント、ユーザーエクスペリエンスなど、様々な部分にこうした技術がいち早く導入されている。

購入時とそれから1年後、2年後では使える機能が増えて便利になっている、なんてことが体験できるのが他のスマートフォンにはない面白いところである。



左が5.7インチディスプレイのPixel 4、右が6.3インチディスプレイのPixel 4 XL


そして10月24日、「Google Pixel 4」および「Google Pixel 4 XL」を発売した。
Google Pixel 4シリーズは、ハイエンドチップセットQualcomm「Snapdragon 855」と機械学習や画像処理、音声認識などに特化した「Pixel Neural Core」を搭載し、セキュリティ面ではグーグルのカスタムセキュリティチップ「Titan M」にて機密性の高いデータ保護を行うフラッグシップモデルだ。

カスタムセキュリティチップTitan Mは前機種のPixel 3シリーズから継承しているが、チップセットとPixel Neural CoreはPixel 4シリーズでパワフルに進化した部分である。

内蔵メモリーは6GB、内蔵ストレージは64GBと128GBの2モデルが用意されており、音楽データを持ち歩いたり、写真や動画を良く撮影したりするなら128GBの大容量モデルを選ぶと良いだろう。なお、microSDカードによる外部ストレージ追加はできない仕様である。




カメラは背面カメラに1220万画素F1.7レンズを搭載した標準カメラと、1600万画素F2.4レンズを搭載した望遠カメラを搭載する。

前面のカメラには800万画素F2.0レンズを搭載した広角カメラを搭載する。

最近のハイエンドスマートフォンのカメラのトレンドとなっている超広角レンズを搭載していないのは残念だが、Pixel 4はカメラとPixel Neural Coreとソフトウェアの技術によって様々なカメラ機能を搭載している。

その一つが、夜景モードとその機能を使った天体写真の撮影だ。

夜景モードは、
写真を連続撮影することにより手持ちでブレが少ない夜景撮影ができるモードである。
肉眼では真っ暗な場所での撮影でも、ライトで照らしたかのような明るい写真が撮影できる。


夜に撮影する機会が増える年末年始に、この機能はありがたい


天体写真撮影モードは、
三脚などでPixel 4を固定し、周囲の明かりがない暗い場所で機能する。
撮影は特に難しい設定はなく、シャッターボタンをタップするだけ。数分間撮影を続けて、星の光りを捉えながら最適な露出設定を自動で行ってくれるというもの。

一般的なカメラで星を撮影するのは意外と難しい。
というのも、肉眼で見える星をカメラが捉えるには光りが弱すぎるのだ。そこで、カメラを三脚に固定して多くの光りが取り込めるよう、長い時間掛けて露光(シャッターを開けて光りを取り込む)する。

ところがデジタルカメラのイメージセンサーは、長時間露光を行うと熱などによるノイズが発生し、それを消すための処理を行う必要がある。ところが、それが星なのかノイズなのかがわからなくなってしまう。
そこでカメラには、長時間露光した同じ時間分の撮影を行い、ノイズの発生を特定して元画像に処理を行う。

つまり、4分の露光を行うと、同じく4分の撮影処理が行われることになり、1回の撮影時感が8分となってしまうのである。

こうして長時間露光によるノイズが軽減されたとしても、処理によっては弱い光などを輝度ノイズと認識して潰してしまうこともある。

本格的な天体撮影を行うのであれば、ノイズ処理をカメラ側ではなくPCの画像処理で行うことで改善するが、初心者には高いハードルとなる。

また、長時間の露光を行うと地球の自転による星の位置のズレるため、星を点で捉えるためには、様々な対処方法を行う必要がある。

そこまでしなくても、綺麗な天体写真が撮れたら便利だろうということで搭載されたのが、Pixel 4のこのモードである。最終的な仕上がりは一眼レフカメラを使った写真の方が綺麗だが、誰でも手軽に天体の写真が撮れると言うことがPixel 4の凄さなのだ。

そしてカメラ機能のもう一つの特徴が望遠撮影だ。
Pixel 4は望遠カメラを搭載しているが、それは遠くのものを大きく写せるほどの望遠カメラではない。あくまで、標準カメラよりも、望遠よりのカメラであるという位置づけだ。

4倍ズームや8倍ズームと言った、Pixel 4が搭載するカメラ以上の望遠倍率は、画像劣化を伴うデジタルズームとなる。

このデジタルズームに対してPixel 4は、夜景モードと同様に複数枚の連続撮影した写真から、デジタルズームで解像度が失われた部分を補完するようにして、超解像ズームを実現している。面白いのは、撮影時の手ブレがその補完を助けているという点だ。

例えば、イメージセンサーの1画素が8倍に拡大されてしまう8倍ズームでは、大きく写ってはいるものの、細かい部分がつぶれてしまって画質が劣化しているように見えてしまう。

本来であれば、最終出力の1200万画素の8倍の9600万画素のイメージセンサーを搭載すれば、8倍ズームを難なく実現可能だ。この原理は、64画素で1200万画素の1画素を構成するので、拡大しても細かい画素数から得られる8倍までは全く劣化なしで出力できると言うもの。

これをPixel 4では、手ブレによって動いてしまった写真を合成して、1200万画素の1画素より細かい情報を積み上げていき、拡大時の補完に役立てるというのである。

この複雑な処理をAIで実現しているのが前述したPixel Neural Coreだ。
その高速処理によって超解像ズームを使っても、待ち時間なしですぐ次の撮影ができるのである。


Pixel 4のデジタル8倍ズーム、解像感が弱まっているが、ディテールが分かる程度の情報が残っている



Pixel 3の7倍ズーム。超解像ズームで滑らかな線が見えるが、細部の情報が再現されていない



夜景撮影でも8倍ズームのブレない写真撮影が可能だ。広角で撮影した渋谷スクランブル交差点と同じ場所からの撮影だ





もう一つ、Pixel 4の特徴的な機能が新開発の「Soli」と呼ばれるレーダーを使ったジェスチャー機能である。
残念ながら日本市場向けのPixel 4は来年の春頃まで利用することができないが、楽にスマートフォンが操作できる最新のハードウェアである。




具体的には、Pixel 4が発する電波に対して物体が近付けば電波が遮断されるため、その反射をもとに位置と距離を把握することができるというもの。

たとえば、手を伸ばしてPixel 4を掴もうとしているという動きを検知し、顔認証のための動作を先読みで行うことができるようになる。スマートフォンを手に取った瞬間に、ロックが解除されるということが実現可能となるのだ。

その逆に、スマートフォンから離れたら、画面をロックするということも可能となる。

こうした機能は、前面のカメラを使った画像認識でも実現可能だ。ところが、カメラを常に起動しておくためには、かなりの電力を消費してしまう。常時カメラ起動しているとスマートフォンを使っていないにも関わらず、バッテリーがどんどん減っていくという問題が起こりうる。

また、カメラは明るすぎる場所や暗所での画像認識が苦手であるため、機能が動作しないと言うことも起こりうるのである。

Soliは、レーダーの反射で位置を把握するため、周囲の明るさに左右されることなく、さらに常時オンの状態でも消費電力が小さいため実用的であるとしている。

とはいえ、まだまだ未知数の機能であるため、将来的にどのように進化していくかを見守る必要があるが、カメラに関してはハードとAIとソフトの3つの技術を融合させて、これまで実現できなかったことを可能とした点は評価したい。


最先端技術だけではなく、普段の使いに便利な機能を搭載している
Pixel 4のキャッチコピーは“グーグルが作りたかったスマートフォン”である。


進化したカメラ機能は、そのうちの1つにしかすぎない。Android OSやユーザーインターフェース、レスポンスなどグーグルのこだわりを知ることができる最新技術を集めたスマートフォンがPixelシリーズなのである。

12月には最新のセキュリティーアップデートと、機能追加が行われるなど、常に進化しており、これもスマートフォンの新しい楽しみ方なのではないかと思う。


執筆  mi2_303