微比恩 > 信息聚合 > AI 绘画侵权实锤,扩散模型可能记住你的照片,现有隐私保护方法全部失效

AI 绘画侵权实锤,扩散模型可能记住你的照片,现有隐私保护方法全部失效

2023-02-03 19:54:06来源: IT之家

AI 绘画侵权,实锤了!最新研究表明,扩散模型会牢牢记住训练集中的样本,并在生成时“依葫芦画瓢”。也就是说,像 Stable Diffusion 生成的 AI 画作里,每一笔背后都可能隐藏着一次侵权事件。不仅如此,经过研究对比,扩散模型从训练样本中“抄袭”的能力是 GAN 的 2 倍,且生成效果越好的扩散模型,记住训练样本的能力越强。这项研究来自 Google、DeepMind 和 UC 伯克利组成的团队。论文中还有另一个糟糕的消息,那就是针对这个现象,现有的隐私保护方法全部失效。消息一出,网友炸开了锅,论文作者的相关推特转发眼看就要破千。有人感慨:原来说它们窃取他人版权成果是有道理的!支持诉讼!告他们!有人站在扩散模型一侧说话:也有网友将论文结果延伸到当下最火的 ChatGPT 上:现有隐私保护方法全部失效扩散模型的原理是去噪再还原,所以研究者要研究事情其实就是:它们到底有没有记住用来训练的图像,最后在生成时进行“抄袭”?训练

关注公众号
标签: AI