Malwarebytesは4月6日(米国時間)、「Stop! Are you putting sensitive company data into ChatGPT?」においてChatGPTの利用に会社の機密データを使わないよう注意喚起した。コスト削減や生産性向上は経営層から好意的に受け止められるが、その作業にChatGPTが使われ機密データが含まれていた場合、外部のサーバに極秘データが流出していることを意味し、問題が生じる可能性がある。

Stop! Are you putting sensitive company data into ChatGPT?

ChatGPTは適切に活用すれば、業務を効率化する便利なアイテムといえる。ChatGPTと協力して複雑な問題を解決することにより、個人で解決するよりも迅速かつ興味深い成果を得られるようになる。

しかしながらMalwarebytesは、組織の利益のためであってもChatGPTに機密情報を提供することは、機密情報を外部に持ち出すことと同じ意味を持つと指摘している。ChatGPTに提供された情報が他者に共有されるかどうかはわからないが、完全に排除する確実な根拠もないと述べている。ChatGPTのような大規模言語モデル(LLM: Large Language Model)の開発競争が活発になってきており、その競争においてバグが見つかり悪用される可能性も危惧されている。

ChatGPTとの情報共有は友人に秘密を教えるようなものであり、その友人には多くの他の友人がいておしゃべりである可能性があることを認識することが重要と伝えている。LLMを業務で使う場合、会社の秘密を知る権利のない人に情報を漏らしているようなものだと考え、機密データやプライベートな情報をChatGPTで取り扱わないことが望まれている。