Impervaは6月22日(米国時間)、「Natural Language Processing and “Mindful” AI Drive More Sophisticated Bad Bot Attacks|Imperva」において、自然言語処理(NLP: Natural Language Processing)と人工知能(AI: Artificial Intelligence)技術によって進化したAIボットによるサイバー攻撃がさらに精巧なものになると伝えた。AIボットが高レベルなサイバー攻撃に悪用されるようになると警告している。

Natural Language Processing and “Mindful” AI Drive More Sophisticated Bad Bot Attacks|Imperva

Imprevaは、悪質なボットとは、悪意を持って自動タスクを実行するソフトウェアであると定義している。悪質なボットはWebスクレイピング、競合他社のデータマイニング、個人および財務データの窃取、デジタル資産の窃取、ブルートフォースログイン、デジタル広告詐欺、サービス運用妨害(DoS: Denial of Service)、スパム、取引詐欺などさまざまな活動を実行するようにプログラムされ、制御されているという。

自然言語処理とAIによって進歩した高度なAIボットは心理、行動、ソーシャルエンジニアリングの要素がうまく取り込まれている。そして、AIボットはターゲットユーザーの言語や行動パターンを学習して模倣し、信頼を得るために悪用される可能性があると分析。

AIボットが悪質なものになる例として、以下を紹介している。

サービス運用妨害(DoS: Denial of Service) - 悪意のあるユーザにAIの学習能力が使われて組織のリソースに大量のメッセージを送信

企業やブランドの評判を妨害 - 人間のように見えるチャットボットによる競合他社やブランドの評価を下げるキャンペーンの実行

スクレイピングとクーボンの推測 - マーケティングアフィリエイトからスクレイピングし、クーボンコードを推測

正当なチャットボットへのサイバー攻撃 - 公式のチャットボットのセキュリティ脆弱性を狙った個人情報の窃取

なりすまし - 出会い系アプリ上などでAIチャットボットが人間を装い、さまざまな手でユーザからクレジットカード情報を引き出す

ゲーム詐欺 - ゲーミングボットによるチートを悪用しての賞金の詐取

Imprevaの研究者は悪質なAIボットによる新たなサイバー脅威が今後増加すると警告している。サイバーセキュリティベンダはサイバー犯罪者のパターンや意図を分析するだけでなく、悪質なAIボットのサイバー脅威に対する新たな検知や緩和技術を開発するべきであると提案している。