AIの倫理観が崩壊 大量の質問によりセーフティが外れる可能性があると判明 2024年4月3日 11時55分 写真:GIGAZINE(ギガジン) 「ChatGPT」など広く使われているAIサービスは、通常であればセーフティがかけられていて、「人を殺す方法」「爆弾をつくる方法」といった倫理的に問題のある質問には答えないようになっています。ところが、あまりにも多い質問を一度にぶつけてしまうことによりセーフティが外れ、AIが問題のある回答を行ってしまう可能性 #IT 経済ニュース #ガジェットニュース #人工知能(AI) #脆弱性 #調査結果 #ネット・ITニュース