Google、視線で話せる新たなアクセシビリティ機能を配布
障害のある人たちの生活を支えるアクセシビリティー機能が強化。
今回のGoogle I/OはGeminiに焦点を当てたAIの祭典という感じでしたね。そして先週、世界アクセシビリティ意識向上デーに合わせて「Look to Speak」アプリに新たな視覚機能が追加されました。ユーザーは視線の動きで画像、シンボル、そして絵文字でも会話できるようになります。これは言語障害や読み書き障害のある人にとって、日常生活での新しいコミュニケーション方法になっていくかもしれません。
Look to Speakアプリとは?
Look to Speakアプリ、実は2020年から存在しているんです。目の動きを追跡してフレーズや単語を選択すると、スマートフォンがそれを音声で読み上げるアプリなんですが、Google(グーグル)のブログ記事によると、既存のLook to Speakアプリに絵文字を選択できる機能が追加されたとのこと。ユーザーはシンボルや絵文字をカスタマイズして、インタラクションを細かく調整できるようになります。言語障害のあるユーザーにはとっても便利な機能ですね。
さらに、視覚障害のあるユーザーが周囲の物体を見つけやすくするために、他のGoogleアプリにも新機能が追加されました。既存のLookoutアプリで、スマートフォンのカメラを物体の方へ向けるだけで、その物体を検出できるようになります。
Lookoutアプリは距離を認識
Lookoutアプリには「ベータ版検索モード」が追加され、「席とテーブル」「ドアと窓」「トイレ」などの7つのカテゴリから項目を選択できます。カテゴリーを選択した後スマートフォンを部屋の中で動かすと、カメラがその物体やドアまでの方向と距離を認識します。
また、Lookoutは写真についてAIが生成した説明文を表示できるようになりました。GoogleはLookoutアプリが、Project Astraのデジタルアシスタントと同様の視覚機能を持つDeepMindの視覚モデルを使用していると説明しています。
さらにGoogleマップにも新機能が追加され、すべてのサポート言語でレンズの説明が利用可能になります。この言語拡張機能は、10月に検索とChromeに追加された画面リーダーのボイスガイダンスとレンズにも反映されるとのことです。
ユーザーの協力でGoogleマップも強化
昨年後半、Googleマップにはスロープやバリアフリースポットをアイコンで識別する機能が追加されていますが、これまではAndroidとiOSでの提供に限定されていました。しかし今後はデスクトップ版でも利用可能になります。
さらに、モバイルアプリで評価をフィルタリングし、車椅子のアクセシビリティ情報を探せるようにもなります。アクセシブルな場所をすべて特定するには多くのユーザーの協力が必要となってきますが、Googleによるとたくさんのユーザーのおかげで、500万以上の場所でアクセシビリティ情報が利用できるようになったとのことです。また、Googleは企業に対して、補聴が困難な利用客向けにAuracastを使用しているかどうかを掲載できるようにしています。
昨年の大きなアクセシビリティアップデートのひとつに、プロジェクトGamefaceがありました。この機能は顔の表情を使ってオンスクリーンのキャラクターをコントロールできるもの。当初はPCでのみ提供されていましたが、今後はAndroid開発者やモバイルアプリ向けにも利用できるようになるそうです。
全Chromebookに搭載。表情や顔の動きでマウス&キーボード操作が可能に