
AIGC动态欢迎阅读
本文标题为:开源大模型超越GPT-3.5!MoE模型实测结果公布,网友批评OpenAI护城河不再
文章出处:量子位
内容字数:5938字
内容摘要:最新测试表明,开源MoE大模型Mixtral 8x7B的表现已经超越甚至赶超了Llama 2 70B和GPT-3.5(即传闻中的GPT-4)。这一稀疏模型仅使用了12.9B参数来处理每个token,并且其推理速度和成本与12.9B密集模型相当。此消息一经公布,立即引发社交媒体热议。OpenAI创始成员Andrej Karpathy也对此表示关注,强调这家“欧版OpenAI”所展示的强劲实力只是一个开始。英伟达AI科学家Jim Fan则认为,每个月涌现的模型众多,但真正优质的极少,能引发广泛注意的更是凤毛麟角。这一波潮流不仅关乎模型所属的公司…
原文链接:阅读原文请点击:开源大模型超越GPT-3.5!MoE模型实测结果公布,网友批评OpenAI护城河不再
与作者联系
文章来源:量子位
作者微信:QbitAI
作者简介:关注人工智能新发展,追踪科技行业前沿
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...