<img src="
">
阅读AIGC动态的最新动态
原标题:大模型多跳推理有解啦,北大采用30B模型击败十亿级模型
文章来源:夕小瑶科技
字数:8239字
摘要:在我们日常生活中,许多问题都是复杂的多跳问题。举例来说,要回答类似“在《坚如磐石》中扮演黎志田的演员在《三体》中饰演什么角色?”这类问题,需要先了解《坚如磐石》中扮演黎志田的演员是谁,然后熟悉《三体》的演员表,最终将两者对应起来。对于大型语言模型(LLM)来说,这是一个巨大的挑战,需将复杂问题分解为多个子问题,确保每个子问题的答案准确,才能正确回答整个复杂问题。此外,LLM可能出现幻觉且无法获取最新知识,即使是简单的子问题也容易出错,因此很可能导致完全错误的答案。最近,北大团队提出了一种约束问题分解策略,将复杂问题分解为“分解-查询”深度优先搜索框架,能够指导大型语言模型有效利用外部知识进行问答任务,并设立一个可靠的问答数据库来降低幻觉风险。实验证明,通过200个训练示例,30B模型战胜了规模更大的570B模型,并在67%的情况下…
原文链接:阅读原文:大模型多跳推理有解啦,北大化繁为简,用30B模型击败百亿模型
联系作者
文章来源:夕小瑶科技
作者微信:xixiaoyaoQAQ
作者简介:提供更快的AI技术前沿资讯,以及更深入的行业洞察。我们聚集了25万名AI应用开发者、算法工程师和研究人员。我们的作者团队来自清华、北大等顶尖学府、国外一流的AI实验室和互联网巨头公司,具备丰富的媒体感知和技术专业知识。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...