<img src="
">
欧洲初创公司Mistral AI开源的Mixtral模型震撼AI社区
近日,法国初创公司Mistral AI发布的Mixtral 8x7B MoE模型引起了AI社区的轰动。这一模型不仅在性能上击败了LLama2和GPT-3.5,而且采用了传闻中OpenAI用于GPT-4的架构,但参数规模比GPT-4要小很多,被誉为缩小版的“GPT-4”。更令人惊喜的是,Mixtral模型还以开源形式发布,Mistral AI甚至提供了通过torrent链接直接下载的方式。
Mixtral 8x7B MoE模型目前免费提供,采用Apache 2.0许可;其推理速度提高了6倍,性能超越了LLama 2 70B模型。性能表现非常出色…(文章未完,详文请阅读原文链接)
原文链接:最新开源模型Mixtral震爆AI社区!超越LLama2和GPT-3.5,来自欧洲初创公司
联系作者
文章来源:夕小瑶科技说
作者微信:xixiaoyaoQAQ
作者简介:夕小瑶科技说专注于提供更快的AI前沿资讯和更深入的行业见解,汇集25万AI应用开发者、算法工程师和研究人员。团队成员均来自清华、北大、国外顶尖AI实验室和互联网巨头,具备丰富的媒体经验和技术深度。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...