在本文中,介绍了一项名为Nightshade的投毒工具,由芝加哥大学团队开发,可在画作中添加隐形更改,导致AI模型在使用这些被非法抓取作为训练数据后出现故障。这种技术的出现对一些绘图模型如DALL-E、Midjourney和Stable Diffusion等可能造成破坏。作者强调了艺术家对AI侵权的反击手段,通过在作品中"投毒"来保护知识产权。详情请阅读原文:50张图“毒倒”Stable Diffusion,汽车和牛都分不清了。如想了解更多相关信息,可联系作者微信:QbitAI。