微软13亿参数的phi-1.5单个A100训练,刷新SOTA,碾压Llama2

微软13亿参数的phi-1.5单个A100训练,刷新SOTA,碾压Llama2

AIGC动态欢迎阅读

原标题:碾压Llama2!微软13亿参数phi-1.5,单个A100训练,刷新SOTA

关键词:模型、数据、研究人员提示能力

文章来源:新智元

内容字数:5912字

内容摘要:新智元的报道编辑桃子指出微软最新推出的预训练模型phi-1.5共有13亿参数,可以进行QA问答和编写代码等任务。模型规模越大,表现是否就越优秀?然而,并非如此。最近,微软的研究人员发布了一个仅含13亿参数的phi-1.5模型。在常识推理和语言技能方面,phi-1.5的表现与其他模型相当。此外,在多步推理方面,该模型的表现也有所突破。

原文链接:点击此处阅读原文:碾压Llama2!微软13亿参数phi-1.5,单个A100训练,刷新SOTA

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:新智元是一个致力于推动中国从互联网+向智能+新纪元迈进的主平台。该平台专注于人工智能、机器人等前沿领域的发展,探讨人机融合、人工智能和机器人对人类社会与文明进化的影响,引领中国进入智能新时代。

© 版权声明

相关AI热点

暂无评论

none
暂无评论...