UC伯克利揭示GPT-4惊人缺陷:儿童能从经验中学习因果,LLM却难以做到

UC伯克利揭示GPT-4惊人缺陷:儿童能从经验中学习因果,LLM却难以做到的封面图

研究人员在UC伯克利发现了GPT-4的惊人缺陷:儿童能够从经验中学习因果,而语言模型(LLM)却无法做到这一点。这项研究揭示了LLM和儿童在认知能力上的重要差异,尤其是在创造新的因果结构方面。虽然LLM经过多次微调和训练数据集的积累,但与儿童相比,却缺乏从经验中学习因果结构的能力。该研究指出,解决这一问题的途径可能是强化逆向强化学习(RLHF),但其逻辑却与儿童学习方式大相径庭。这一发现引起了人们对LLM是否具有智能的讨论,研究人员认为这些AI模型更像是高效和强大的模仿引擎,而非智能体。

LeCun也转发了这项研究,表示LLM无法做到的事情却是儿童们擅长的。这种认知能力差异引发了对大型语言模型和语言与视觉模型是否真正拥有智能的质疑。UC伯克利的研究人员认为这些AI模型更像是高效和强大的模仿引擎,而非智能体。他们旨在推动中国从互联网+向智能+新纪元的转变,关注前沿领域的发展,重点关注人工智能、机器人等领域。更多详情请参阅原文:UC伯克利发现GPT-4惊人缺陷:儿童从经验中学习因果,LLM却不行。如果有任何疑问,请联系作者微信:AI_era。

© 版权声明

相关AI热点

暂无评论

none
暂无评论...