
AIGC动态欢迎阅读
在华盛顿大学语言学家Emily M. Bender于2021年发表的一篇论文中,提出了关于大型语言模型是否真正理解世界的问题。“理解世界”这一概念的解释因人而异。有观点认为大型语言模型只是“随机鹦鹉”,仅仅统计词语出现的概率,然后通过随机生成看似合理的句子,而并非真正理解真实世界。神经网络的不可解释性也导致学术界对于语言模型是否真正理解世界存在争议。
关键字:模型,棋盘,表征,数据,研究人员
文章来源:新智元
内容字数:8864字
内容摘要:新智元报道编辑:LRS。大型语言模型是否真正理解世界?这一问题存在不同见解。华盛顿大学语言学家Emily M. Bender在2021年发表的一篇论文中指出,大型语言模型可能只是“随机鹦鹉”,仅仅根据词语出现频率进行统计,并生成看似合理的句子,而非真正理解真实世界。由于神经网络的不可解释性,学术界对于语言模型是否理解世界尚存争议。
原文链接:点此阅读原文:吴恩达力赞!哈佛、MIT学者用下棋证明:大型语言模型确实「理解」了世界
联系作者
文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人对人类社会与文明进化的影响,领航中国新智能时代。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...