人型ロボットが「同僚」の職場に予想される2つの問題点

写真拡大

ロボットは多くの専門家たちが予想していた以上に早く、私たちの職場の「一員」になりつつある。そして、それは少数派や女性を中心とする一部の人たちに、不安を抱かせ始めている。

筆者は先ごろ開催されたテクノロジーカンファレンス「Collision(コリジョン)」で、人型ロボットとの会話を体験した。このロボットはすでに、米国と日本に加え、フランスでも利用が進んでいる。

身長121cmのその姿のかわいらしさに最初は大喜びした筆者だが、話しているうちに怖さを感じ始めた。理由は、ロボットが持つ「相手の笑顔を認識する」能力だ。

ロボットは、筆者にこう話しかけた──「あなたが今、笑顔かどうか分かります」「笑っていませんね」「どうしたの、一緒に楽しい時間を過ごしているじゃない?」「なぜ笑わないの?僕がかわいくないから?」

ロボットの発言は、よく言っても「感覚が鈍い」というところだ。開発者はきっと、仏頂面をしたことも、もっと笑ってと言われたこともないのだろう。そうした発言が、女性をどのような気持ちにさせるか全く理解していない人がプログラムしたのだと思う。

テクノロジーは、中立なものではない。開発した人の考えや態度を反映したものになる。企業向けに人工知能(AI)やロボット技術に関する調査・戦略立案を行う米トップボッツ(Tapbots)の調査・計画部門の責任者は、「AIの専門家らは、自分たちが合理的でデータに基づいて物事を考える人であることを誇りに思っている。だが、彼らは数字では示せない問題を見落とす可能性がある…開発者たちが持つ偏見は、その作り出すものにも波及的影響を及ぼす」と指摘している。

私たちはロボットと一緒に働く職場で今後、次のような状況に直面する可能性がある。

1. 女性や少数派を対象としたベータテストを行っていないロボットは、効率的に「同僚」と働くことができない

前出のロボットは、筆者の笑顔を認識することができなかった。だが、男性の笑顔は瞬時に認識した。筆者が女性であることが、笑顔を認識しない理由だと断定することはできないが、他にも同様の例がある。

コリジョンに参加していた「アニタ・ボルグ女性と技術研究所」の社長兼最高経営責任者によれば、看護師向けに開発されたある音声認識機能ソフトウェアは医療機関で使用してみたところ、大失敗に終わった。女性たちの発言を認識することができなかったためだ。

また、ある顔認識ソフトウェアは、黒人と白人の顔の認識の精度に大きな差があると指摘されている。犯罪者の可能性がある人物の特定において、法執行機関が全米の各都市でこの技術に大きく依存していることを考えれば、非常に大きな問題だといえる。

2. ロボットの「解雇」は困難

配車サービス大手ウーバーの元エンジニア、スーザン・ファウラーの例を思い出してみてほしい。上司によるセクハラを訴えたが、ウーバーはこの上司が「優秀な人間」であることを理由に、ただ注意をしただけで済ませた。

次に、「一人の優秀な人間」ではなく、企業の運営方針の一部に完全に組み込まれた「何千ものロボット」が上司となる状況を想像してみてほしい。ウーバーのセクハラ問題に対応をしたのは人間関係の問題を扱う人事部だったが、会社側に加担し、適切な対応を怠った。ロボットが人事を担当するようになれば、たとえ「最高のチーム」を作ったとしても、こうした人間関係の問題を監視することはできないだろう。

そうなれば、誰がそうした問題に関する苦情を扱うのだろうか。AIの専門家たちが、効率的にこの問題にあたるロボットを開発するのだろうか?ロボットの導入に多額の投資を行った後で、企業がより簡単に交代させられる人間の従業員を、ロボットより優先するようになるとは考えにくい。

ロボットは今後、より幅広く人間の文化の一部として取り込まれていくようになるだろう。そうした中で企業は、人間の従業員が安全で支援を受けた環境で働いていると確信できるようにするため、人間関係の監督のためにどのような機能を導入すべきだろうか。その点について、真剣に検討する必要がある。