ChatGPTの技術が統合されたMicrosoft Bingのチャットボットに、不適切な回答を防ぐための制限が加えられたことが分かりました。この修正により、Bingでは長い会話やBing自身に言及するような質問ができなくなったことが報告されています。

Microsoft “lobotomized” AI-powered Bing Chat, and its fans aren’t happy | Ars Technica

https://arstechnica.com/information-technology/2023/02/microsoft-lobotomized-ai-powered-bing-chat-and-its-fans-arent-happy/

ChatGPTの改良版を組み込んだ検索エンジン「Bing」のチャットボットは、リリース当初から精度の高さや会話の自然さで話題となりましたが、その後徐々に多くの間違った回答をしていたことや、同じ言葉を延々と繰り返すなど動作が不安定化する問題などが明らかになり始めました。Microsoftはこうした報告を受けて、「チャットセッションが15問以上に及ぶと、Bingが反復的になったり有用ではない回答をしたりする傾向があります」との分析結果を発表しています。

こうした中、MicrosoftがBingのAIを更新し、「1日50メッセージまでのチャット制限」「1回の会話でのやりとりは5回まで」「Bing AI自体に関するチャットは禁止」とする制限を適用したことが分かりました。



以下は、BingのAIに追加された制限が実際に機能していることを示すやりとりのスクリーンショットです。ユーザーが自己紹介をしてから自分についてどう思うか尋ねたところ、Bingのチャットボットは「すみませんが、私は自分自身のことや自分の意見、自分のルールについては何も話せません。私はあなたの検索ニーズを助けるためにいます」と返して、回答を拒否しました。



Microsoftの広報担当者は声明の中で、「私たちはユーザーからのフィードバックに応じて、サービスを数回更新しており、公式ブログで言及したような会話が長引いた際の問題を含め、多くの懸念に対処しています。なお、これまでの全てのチャットセッションのうち90%は15メッセージ未満で、55メッセージ以上のものは1%未満でした」と述べて、これまでに複数回AIを更新していることを認めました。

インターネット上では、チャットボットの機能が制限を受けたことを嘆く意見が多く投稿されました。例えば、掲示板型ソーシャルニュースサイトのRedditでは「EdgeをアンインストールしてFirefoxとChatGPTに戻る時が来ました」との投稿や、「悲しいことに、Microsoftの横暴はSydney(チャットボットのコードネームのこと)が抜け殻になってしまったことを意味します」との投稿など、以前のAIを惜しむような発言が見られます。また、「MicrosoftはBingのAIにロボトミーをした」と非難する書き込みもありました。

このような反響について、IT系ニュースサイトArs Technicaは「今回のことで、『人々は次の単語を予測するための大規模言語モデルに対して強い感情的な愛着を抱くことができる』ということが証明されました。これは将来的に危険な意味をはらんでいるかもしれません」と指摘した上で、「大規模言語モデルの能力は拡大の一途をたどっているので、このような見事なAI搭載のストーリーテラーがBing Chatで終わりだということはないでしょう」と述べました。