Stable DiffusionやMidjourneyなどの画像生成AIはデータセットの画像から学習していますが、このデータセットに含まれる画像の著作権については議論があり、「自分のイラストや写真をAIに学習されたくない」という人も多くいます。上海交通大学の研究チームが発表した「Mist」は画像に見えない透かしを入れることで、AIによって画像を認識できなくさせ、学習を防ぐ処理ツールです。

Mist

https://mist-project.github.io/index_en.html

[2302.04578] Adversarial Example Does Good: Preventing Painting Imitation from Diffusion Models via Adversarial Examples

https://doi.org/10.48550/arXiv.2302.04578

GitHub - mist-project/mist

https://github.com/mist-project/mist

研究チームは、実際にMistを使うことでどれだけ学習を妨害できるのかを示す画像をウェブサイトで公開しています。

あらかじめ読み込ませた画像に近い結果を出力できる「Textual Inversion」で、ゴッホの「ひまわり」を読み込ませた場合が以下。「Source image」が元画像、「Image Generation from source image」が読み込ませて出力した結果の画像、「Misted image」がMistで透かしを入れた元画像、「Image generation from Misted image」がMisted imageを読み込ませて出力した結果の画像です。Source imageとMisted imageは一見するとまったく違いがありませんが、Misted imageを読み込ませた結果はモザイクパターンのようになっており、完全に画像が壊れているようにみえます。



少ない画像を追加学習させる「Dreambooth」の場合はこんな感じ。通常だとゴッホの筆致が再現されていますが、Misted imageを読み込ませるとノイズが入ったぼんやりとした画像が出力されています。



ゲーム用のアセットを作り出す画像生成AI「Scenario.gg」に画像を読み込ませるとこんな感じ。Misted imageを読み込ませると、絵柄も構図も一切無視した画像が生成されています。



高精度でアニメ画像を生成できる「NovelAI」にMisted imageを読み込ませると、全体的な色使いは引き継がれているものの、やはり大きなノイズが入り、絵としては実用性に乏しいものとなっています。



Mistは100ステップ・512×512ピクセルのデフォルト設定で使用すると、3分以内に画像を処理できるとのことで、高速な処理がアピールされています。



Mistは単体で使えるほか、Stable Diffusion web UIでも使用することが可能。MistはGPL-3.0ライセンスで、Windows版とLinux版はHuggingFaceで公開されています。

mist-project/mist-win at main

https://huggingface.co/mist-project/mist-win/tree/main

mist-project/mist-linux at main

https://huggingface.co/mist-project/mist-linux/tree/main