Image: Apple

10月28日、いよいよApple(アップル)のAI「Apple Intelligence」のベータ版がリリースされますね。

本格的に使えるようになるのは来年以降といわれていますが、すでにアナウンスされている新機能も多々。

「Visual Intelligence」って?

新搭載される機能の1つに「Visual Intelligence」というものがあります。これは気になる対象物をカメラで捉え、目の前の情報を瞬時に把握できるAI技術です。Googleレンズに似ていますね。

なお、iPhone 16シリーズに新搭載されたカメラコントロールを活用するため、対応機種はiPhone 16と16 Plusに限ります。

では、具体的に何ができるように何ができるようになるのか?

例えばカメラを向けるだけでイヌの犬種を知ることができます。あとは、通りかかったレストランの営業時間や口コミをチェックしたり、写したものをインターネット上で調べて、瞬時に購入できる場所を知ることもできます。

名刺や資料などをカメラで写して、日付や内容などの情報を自動で取り込み整理するなど、ビジネスシーンでの活躍も期待されているようです。

プライバシー面は大丈夫?

GoogleレンズがクラウドベースのAIによる膨大なデータを活用する一方、「Visual Intelligence」は情報の処理をデバイス内で行なうことを中心に、プライバシー重視の姿勢を見せています。Appleは、カメラで撮影した画像が、Appleのサーバーに送信されることはないとしています。

Appleは今後さらにこのAI技術を拡張して、サービスを増やしていくといっているので、どの情報が誰と共有されているか正確にチェックしておくことは重要でしょう。

本格的に使えるようになるのはまだ先?

「Apple Intelligence」は、10月28日にリリースされるiOS18.1、iPadOS 18.1、macOS Sequoia 15.1によってベータ版が利用可能となります。今のところ、使える言語は英語のみ。日本語などのリリースは2025年を予定しています。

Apple iPhone 16 (256 GB) - ホワイト
141,212円
Amazonで見る
PR

Source: 9to5Mac