
最近传出消息称,一家名为AIGC的公司发布了一款开源的MoE模型,成功击败了Llama 2,正在逼近GPT-4的水平。这家由22人组成的公司在成立半年后估值已达20亿。该公司在欧洲AI界引起了轰动,被称为开源奇迹。Mistral AI发布了首个开源MoE大模型,其规模达到了8x7B。这一消息在AI社区掀起了不小的波澜,被戏称为初创公司版的超级英雄故事。Mistral AI公司成立于法国,刚刚推出的MoE模型号称是当时最强的70亿参数开源模型。随后,他们发布了类似GPT-4架构的开源版本Mistral 8x7B。
据悉,这家公司在仅发布了三条内容的情况下,在欧洲完成了历史上最大的种子轮融资。值得一提的是,MoE模型的创始人姓氏的首字母正好组成了「L.L.M.」,这一巧合让人忍俊不禁。文章来源于新智元,更多详细信息可以查阅原文:8x7B开源MoE击败Llama 2逼近GPT-4!欧版OpenAI震惊AI界,22人公司半年估值20亿。
如果您对这篇文章感兴趣,可以联系作者AI_era,他是智能+中国主平台的编辑,致力于推动中国智能新时代的发展,特别关注人工智能和机器人等领域的发展。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...