MoE模型参数数量达到467亿,追平GPT-3.5!Mixtral开源模型细节首次披露,性能接近GPT-4 近日,Mistral AI公司公布了Mixtral 8x7B模型的技术细节,展现出强劲的性能和更快的推理速度。此外,Mistral AI还推出了性能更强的Mistral-medium型号,已经进入内测阶段,性能直逼GPT-4。Mixtral 8x7B在许多基准测试中的表现优于Llama 2 70B,... AI工具箱2年前