欧洲初创公司推出超越LLama2和GPT-3.5的Mixtral开源模型!震撼AI社区!

<img src="欧洲初创公司推出超越LLama2和GPT-3.5的Mixtral开源模型!震撼AI社区!">

欧洲初创公司Mistral AI开源的Mixtral模型震撼AI社区

近日,法国初创公司Mistral AI发布的Mixtral 8x7B MoE模型引起了AI社区的轰动。这一模型不仅在性能上击败了LLama2和GPT-3.5,而且采用了传闻中OpenAI用于GPT-4的架构,但参数规模比GPT-4要小很多,被誉为缩小版的“GPT-4”。更令人惊喜的是,Mixtral模型还以开源形式发布,Mistral AI甚至提供了通过torrent链接直接下载的方式。

Mixtral 8x7B MoE模型目前免费提供,采用Apache 2.0许可;其推理速度提高了6倍,性能超越了LLama 2 70B模型。性能表现非常出色…(文章未完,详文请阅读原文链接)

原文链接:最新开源模型Mixtral震爆AI社区!超越LLama2和GPT-3.5,来自欧洲初创公司

联系作者

文章来源:夕小瑶科技说

作者微信:xixiaoyaoQAQ

作者简介:夕小瑶科技说专注于提供更快的AI前沿资讯和更深入的行业见解,汇集25万AI应用开发者、算法工程师和研究人员。团队成员均来自清华、北大、国外顶尖AI实验室和互联网巨头,具备丰富的媒体经验和技术深度。

© 版权声明

相关AI热点

暂无评论

none
暂无评论...