
AIGC动态欢迎阅读
原标题:碾压Llama2!微软13亿参数phi-1.5,单个A100训练,刷新SOTA
文章来源:新智元
内容字数:5912字
内容摘要:新智元的报道编辑桃子指出微软最新推出的预训练模型phi-1.5共有13亿参数,可以进行QA问答和编写代码等任务。模型规模越大,表现是否就越优秀?然而,并非如此。最近,微软的研究人员发布了一个仅含13亿参数的phi-1.5模型。在常识推理和语言技能方面,phi-1.5的表现与其他模型相当。此外,在多步推理方面,该模型的表现也有所突破。
原文链接:点击此处阅读原文:碾压Llama2!微软13亿参数phi-1.5,单个A100训练,刷新SOTA
联系作者
文章来源:新智元
作者微信:AI_era
作者简介:新智元是一个致力于推动中国从互联网+向智能+新纪元迈进的主平台。该平台专注于人工智能、机器人等前沿领域的发展,探讨人机融合、人工智能和机器人对人类社会与文明进化的影响,引领中国进入智能新时代。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...