噪声注入、扰动性对抗等技术的调研
有效性测试中...
思路:
Glaze: Protecting Artists from Style Mimicry by Text-to-Image Models: https://arxiv.org/pdf/2302.04222.pdf 提供了扰动性对抗,增加AI学习成本想法的基础,但是有效性?问题在于保证图片原本的质量。可迁移性?可迁移性未知,仅是针对多个特殊的模型进行了加强?有无泛用性?
Explaining and Harnessing Adversarial Examples: https://arxiv.org/pdf/1412.6572.pdf 对抗性噪声是一种可能的方法,它涉及向图像添加微小的扰动,以使 AI 模型产生误分类。一种可能的方法是使用生成对抗网络 (GANs) 来创建这种扰动。GANs 由两部分组成:一个生成器和一个判别器。生成器的目标是创建看起来像真实数据的假数据,而判别器的目标是分辨真实数据和假数据。这种动态竞争过程可以用来创建足以混淆 AI,但对人类视觉无害的噪声。不过对于原风格和原画的质量会有影响。以及我们缺少可实现的源码。
SEGMENTING UNSEEN INDUSTRIAL COMPONENTS IN A HEAVY CLUTTER USING RGB-D FUSION AND SYNTHETIC DATA: https://arxiv.org/pdf/2002.03501.pdf 防止AI,应对Deepfake?也是扰动性对抗的原理,可以参考。
Adversarial Attacks and Defences: A Survey: https://arxiv.org/pdf/1810.00069.pdf
Improved Techniques for Training GANs: https://arxiv.org/pdf/1606.03498.pdf 扰动性对抗AI的研究并不多见。但是看起来是有效的。实际上这项技术通常用于增强AI模型的鲁棒性。要用魔法战胜魔法。
https://mist-documentation.readthedocs.io/zh_CN/latest/content/mode.html
https://github.com/mist-project/mist
mist和其源码,类似的以扰动性对抗增加AI学习成本的项目,相比Glaze开放了源码。而且按照相关团队验证有一定的可迁移性和泛用性?(我仍然担心对于个别绘画模型特调的情况,这样子没有泛用性)需要有更有专业知识的人来解读一下源码?可以考虑联系下开发团队。但是对调研有极大的帮助。
Last updated