AppleがiPhoneで15分のトレーニングをするだけで「自分に似た合成音声」で他人と会話できる機能を発表
Appleが視覚・聴覚・認知・モビリティのアクセシビリティを向上するためのソフトウェア機能をiPhoneやMacに導入すると、2023年5月16日に発表しました。その中でも特に目玉となる機能が、iPhoneやiPadに声を吹き込むだけで、自分の声を再現した音声を合成し、コミュニケーションに応用できるという「Live Speech」です。
Apple previews Live Speech, Personal Voice, and more new accessibility features - Apple
Live SpeechはiPhone・iPad・Macに搭載される予定で、入力した文章をソフトウェアが読み上げる、いわゆるText-to-Speechの機能です。
ユーザーがランダム化された一連のテキストを読み上げ、iPhoneやiPadで15分間録音すると、この録音された15分間の音声を基に、ユーザーの声をオンデバイスの機械学習で再現した音声が合成されます。Appleは、ALS(筋萎縮性側索硬化症)などの病気で会話能力が将来的に失われる可能性のあるユーザーを想定しています。
ALS患者支援団体の理事であるフィリップ・グリーン氏は「結局のところ、最も重要なのは友人や家族とコミュニケーションが取れることです。自分の声で『愛している』と伝えることができれば、世界は大きく変わります。iPhoneでたった15分で自分の声を合成できるというのは並外れたことです」とコメントしています。
また、視覚障害を持つユーザーが、文字ラベルのある物理オブジェクトを簡単に操作できるようになる「Point and Speak」も発表されました。
電子レンジのボタンやエレベーターのボタンなど、操作可能な機械のボタンには文字で説明が書かれているものが多くありますが、視覚障害がある人にとっては、点字が添えられていなければどのボタンがどの機能を有しているかがわかりません。そこで、iPhoneやiPadの「拡大鏡」アプリで撮影すると、指やボタンを認識し、自分が押そうとしているボタンに書かれている文字を読み上げてくれるというのが「Point and Speak」です。
「Point and Speak」がどんな機能なのかは以下のムービーを見ると一発でわかります。
Point and Speak in Magnifier makes it easier for users with vision disabilities to interact with physical objects that have several text labels.
さらに、Appleはメッセージ・カメラ・写真・音楽・通話・FaceTimeなどの基本的な機能にアクセスしやすくなる機能「Assisitive Access」も発表しました。Appleによると、アプリとエクスペリエンスを本質的な機能に絞り込むことで、認知的負荷を軽減し、認知障害を持つ人でも扱いやすくなるとのこと。
メッセージでは、絵文字専用のキーボードも用意されます。
他にも以下の機能が追加されるとのこと。
・iPhoneをMacにペアリングして、快適に聞こえるようにカスタマイズできるようにする「Made for iPhone hearing devices」
・音声によるテキスト入力の操作性向上。
・任意のスイッチを仮想のゲームコントローラーに変えて、iPhoneやiPadでゲームをプレイできるようにする「Switch Control」
・テキストサイズの調整がより簡単になる。
・メッセージやSafariで表示されたGIFアニメーションなどの動く画像を自動的に一時停止可能に。
・「VoiceOver」による読み上げやSiriが話しかける速度を0.8倍〜2倍まで調整可能に。
Appleのティム・クックCEOは「Appleは、最高のテクノロジーとはすべての人のために構築されたテクノロジーであると常に信じてきました。本日、テクノロジーを利用しやすくしてきたAppleの長い歴史に基づいて構築された素晴らしい新機能を皆さまと共有できることをうれしく思っています。この新機能により、誰もが好きなことを作り上げ、コミュニケーションを取り、実行する機会が得られます」とコメントしています。