画像は合成です。

『iOS 11』で、拡張現実(AR)アプリの開発をサポートする『ARKit』という仕組みが導入されます。ARKitによって何が変わり、これまでのARアプリと何が違うのでしょうか。

ARKitを使ったARアプリの仕組み

iPhoneのカメラを通して得た映像から、その空間にある目立った特徴や違いを解析。そこにiPhoneのモーションセンサーのデータを組み合わせ、空間やその空間にある物の位置をARKitが認識します。

ARKitから受け取った情報を元に、アプリでその空間の中にARのオブジェクトを置けば、iPhoneを動かしたり、立っている位置を変えたりしても、そのARオブジェクトはその場所にあるように見えます。

配置したARオブジェクトの周りを歩けば、様々な角度から眺められます。近寄ればオブジェクトの細部が分かります。

メジャーをARで再現した例では、ARKitによる映像とモーションセンサーのデータ解析によって、数センチの誤差はありますが、空間を正確に認識していることが分かります。

ARKitには弱点もあります。映像とモーションセンサーのデータで空間を認識するので、映像が暗かったり、ぼけていたり、ユーザーがiPhoneを速く動かしたりすると、認識精度が悪くなってARの品質が落ちます。

これまでのARアプリとの違い

基本的な仕組みは同じです。これまでのARアプリの多くは、専用のマーカーやGPS・コンパス・モーションセンサーを使って位置を認識し、iPhoneの位置・角度に応じてカメラの映像にARオブジェクトを表示していました。

ARKitの利点は専用のマーカーが不要なこと、そして映像を解析して空間とその空間にある物の位置を認識できること。マーカーを置く必要がないので、ARを実現できる場所・場面が増えます。

こうした技術が、アプリ開発者なら無料で誰でも使える点も利点です。ARアプリの基礎部分を開発する手間が減り、アプリが目指す機能やコンテンツの充実に注力できます。

ARKitは対応機種に制限あり

ARKitを使ったアプリ・機能は、A9以降のプロセッサを搭載した機種に限って利用できます。『iPhone 6s』・『iPhone 6s Plus』・『iPhone SE』以降、iPad Pro・第5世代iPadです。

その理由は、ARKitで映像を解析するために高い処理能力が必要とされるからでしょう。

iOS 11の正式リリースは今秋ですが、今からどんなアプリが出てくるのか楽しみです。

多くの開発者がARKitを使ったアプリの試作に取り組んでいます。その一部はウェブサイト『Made with ARKit』で見ることができます。

Made With ARKit

参考

ARKit | Apple Developer DocumentationUnderstanding Augmented Reality | Apple Developer DocumentationMade With ARKit