MoE模型实测结果揭晓:开源大模型挑战GPT-3.5,网友疑虑OpenAI护城河缩水

MoE模型实测结果揭晓:开源大模型挑战GPT-3.5,网友疑虑OpenAI护城河缩水

AIGC动态欢迎阅读

本文标题为:开源大模型超越GPT-3.5!MoE模型实测结果公布,网友批评OpenAI护城河不再

关键词:模型、基准官方中文、版本

文章出处:量子位

内容字数:5938字

内容摘要:最新测试表明,开源MoE大模型Mixtral 8x7B的表现已经超越甚至赶超了Llama 2 70B和GPT-3.5(即传闻中的GPT-4)。这一稀疏模型仅使用了12.9B参数来处理每个token,并且其推理速度和成本与12.9B密集模型相当。此消息一经公布,立即引发社交媒体热议。OpenAI创始成员Andrej Karpathy也对此表示关注,强调这家“欧版OpenAI”所展示的强劲实力只是一个开始。英伟达AI科学家Jim Fan则认为,每个月涌现的模型众多,但真正优质的极少,能引发广泛注意的更是凤毛麟角。这一波潮流不仅关乎模型所属的公司…

原文链接:阅读原文请点击:开源大模型超越GPT-3.5!MoE模型实测结果公布,网友批评OpenAI护城河不再

与作者联系

文章来源:量子位

作者微信:QbitAI

作者简介:关注人工智能新发展,追踪科技行业前沿

© 版权声明

相关AI热点

暂无评论

none
暂无评论...