画像提供:マイナビニュース

写真拡大

はい、本当です。iOS 13では、iOS 11のとき登場したVisionフレームワーク(機械学習による画像分析を行うための関数群)が拡張され、テキスト情報を取得できるようになりました。従来のVisionフレームでは、文字と認識されていた部分は矩形の画像領域と判定されていましたが、iOS 13以降はその部分を文字データとして取得できます。

一般的に、紙の文書に書かれた文字を編集可能な文字データへと変換するには、光学文字認識(OCR、Optical Character Recognition)と呼ばれる処理が必要です。従来はOCRと呼べる機能/フレームワークはiOSに標準装備されていなかったため、同機能を実現するにはサードパーティー製アプリ/サービスを利用してきましたが、これからはiOS標準の機能でひととおりカバーできます。

iOS 13で追加された「VNRecognizeTextRequest」クラスでは、カメラが認識した領域内にある文字それぞれのグリフ(文字の外枠)を検出し、指定された言語に従い解釈しようとします。現在はベータ版の段階であり、iOS 13がリリースされるときにどれだけの数の言語がサポートされるかは不明ですが、WWDCで開催されたセッションでは名刺(英数字)の内容を瞬時に読み取っていました。

活用事例としては、長文を読み取るというよりは、名刺に10桁前後の数字の羅列がある場合は電話番号、アルファベットや数字の組み合わせは住所、などと文字列の内容を判別しつつ、電話をかけたり地図を表示したり、アプリとの連携が想定されています。サポートされる言語次第の部分はありますが、名刺やビジネス文書を管理するアプリに活用されるのではないでしょうか。