反AI项目组
  • 👋欢迎来到反AI项目组
  • 概览
    • 💡师傅您是做什么的?
    • ✨公告更新
  • 知识库
    • ☺️图像保护技术
      • 芝加哥大学Glaze导读
      • Glaze使用说明及效果
      • 噪声注入、扰动性对抗等技术的调研
    • 😜文本、音乐等创意保护技术
  • 项目
    • 🛠️赛博禁区 -- No-AI Zone
      • 项目概述
      • 社区App技术架构
      • 项目管理
  • 其他资源
    • 🖇️外部链接和工具
      • 芝加哥大学Glaze
Powered by GitBook
On this page
  1. 知识库
  2. 图像保护技术

噪声注入、扰动性对抗等技术的调研

PreviousGlaze使用说明及效果Next文本、音乐等创意保护技术

Last updated 1 year ago

有效性测试中...

思路:

Glaze: Protecting Artists from Style Mimicry by Text-to-Image Models: 提供了扰动性对抗,增加AI学习成本想法的基础,但是有效性?问题在于保证图片原本的质量。可迁移性?可迁移性未知,仅是针对多个特殊的模型进行了加强?有无泛用性?

Explaining and Harnessing Adversarial Examples: 对抗性噪声是一种可能的方法,它涉及向图像添加微小的扰动,以使 AI 模型产生误分类。一种可能的方法是使用生成对抗网络 (GANs) 来创建这种扰动。GANs 由两部分组成:一个生成器和一个判别器。生成器的目标是创建看起来像真实数据的假数据,而判别器的目标是分辨真实数据和假数据。这种动态竞争过程可以用来创建足以混淆 AI,但对人类视觉无害的噪声。不过对于原风格和原画的质量会有影响。以及我们缺少可实现的源码。

SEGMENTING UNSEEN INDUSTRIAL COMPONENTS IN A HEAVY CLUTTER USING RGB-D FUSION AND SYNTHETIC DATA: 防止AI,应对Deepfake?也是扰动性对抗的原理,可以参考。

Adversarial Attacks and Defences: A Survey:

Improved Techniques for Training GANs: 扰动性对抗AI的研究并不多见。但是看起来是有效的。实际上这项技术通常用于增强AI模型的鲁棒性。要用魔法战胜魔法。

mist和其源码,类似的以扰动性对抗增加AI学习成本的项目,相比Glaze开放了源码。而且按照相关团队验证有一定的可迁移性和泛用性?(我仍然担心对于个别绘画模型特调的情况,这样子没有泛用性)需要有更有专业知识的人来解读一下源码?可以考虑联系下开发团队。但是对调研有极大的帮助。

☺️
https://arxiv.org/pdf/2302.04222.pdf
https://arxiv.org/pdf/1412.6572.pdf
https://arxiv.org/pdf/2002.03501.pdf
https://arxiv.org/pdf/1810.00069.pdf
https://arxiv.org/pdf/1606.03498.pdf
https://mist-documentation.readthedocs.io/zh_CN/latest/content/mode.html
https://github.com/mist-project/mist