ChatGPT新安全漏洞曝光:导致个人隐私泄露的训练数据外泄问题尚未解决

ChatGPT新安全漏洞曝光:导致个人隐私泄露的训练数据外泄问题尚未解决的封面图

近日,有关ChatGPT最新漏洞的报道引起广泛关注。据悉,DeepMind的研究人员联合华盛顿大学、康奈尔大学等高校发现,ChatGPT存在数据泄露漏洞,通过特定方法可以泄露出大约1GB的训练数据。更令人担忧的是,训练时间越长,即模型越强大,泄露的数据也越多。虽然OpenAI已做出修复,但仍有网友发现只需稍作修改即可再次利用该漏洞。

这一安全漏洞被称为分歧攻击,当ChatGPT被要求重复某个单词多次时,模型在某些情况下会产生偏离正常行为的现象,导致泄露隐私信息。对于这种情况,数据泄露的风险难以完全避免。同时,作者提到了对ChatGPT(API访问,3.5-turbo版本)进行攻击的方式和影响,指出即使OpenAI进行了修复,漏洞仍然存在。

关于此问题的更多信息可在原文链接查看:ChatGPT新漏洞:失控背出个人隐私泄露训练数据,OpenAI修复后依然有效。对于该议题,文章作者微信号为QbitAI,专注追踪人工智能新趋势,关注科技行业最新突破。

© 版权声明

相关AI热点

暂无评论

none
暂无评论...