50张图片让Stable Diffusion“崩溃”,汽车与牛难辨

50张图片让Stable Diffusion“崩溃”,汽车与牛难辨的封面图

在本文中,介绍了一项名为Nightshade的投毒工具,由芝加哥大学团队开发,可在画作中添加隐形更改,导致AI模型在使用这些被非法抓取作为训练数据后出现故障。这种技术的出现对一些绘图模型如DALL-E、Midjourney和Stable Diffusion等可能造成破坏。作者强调了艺术家对AI侵权的反击手段,通过在作品中"投毒"来保护知识产权。详情请阅读原文:50张图“毒倒”Stable Diffusion,汽车和牛都分不清了。如想了解更多相关信息,可联系作者微信:QbitAI。

© 版权声明

相关AI热点

暂无评论

none
暂无评论...