<img src="
">
欢迎阅读AIGC动态
文章题目:GPT、Llama等大型模型存在“逆转诅咒”,如何解决这一bug?
文章来源:机器之心
文章长度:8747字
内容摘要:本文分析了关于大型语言模型“逆转诅咒”的现象及缓解方法。来自中国人民大学的研究者将Llama等因果语言模型的“逆转诅咒”归因于next-token prediction和因果语言模型的固有缺陷,并通过引入双向注意力机制对Llama模型进行微调,成功缓解了这一问题。研究指出目前主流大型模型的结构和训练方式存在潜在缺陷,呼吁更多研究者在模型结构和预训练方法上进行创新,以提高智能水平。论文链接:https://arxiv.org/pdf/2311.07468.pdf
原文链接:阅读原文请点击:GPT、Llama等大模型存在「逆转诅咒」,这个bug该如何缓解?
联系作者
文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业人工智能媒体和产业服务平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...