苹果推出定制版CUDA:M3 Max每秒迭代2.8次

苹果推出定制版CUDA:M3 Max每秒迭代2.8次的封面图

最新消息显示,苹果公司发布了针对自家芯片的机器学习框架MLX,旨在简化研究人员在苹果硬件上进行机器学习模型的训练和部署。这一框架类似于NumPy,使用起来类似于PyTorch、Jax和ArrayFire等现有框架,但针对苹果芯片进行了优化。这对苹果芯片上的机器学习研究人员而言是一大利好,解决了以往使用M芯片GPU跑模型困难的问题。

不仅如此,MLX还增加了对统一内存模型的支持,使得阵列位于共享内存中,可以在任何支持的设备类型上执行操作,无需执行数据复制。这意味着苹果的其他产品也可能很快能够运行模型,给人们带来了更多期待。

对于英伟达CUDA长久以来在AI领域的主导地位,很多人希望有更多替代选择,比如PyTorch支持更多GPU,OpenAI的Triton等。这一次,苹果的MLX框架为苹果芯片的机器学习应用领域带来了新的可能性。

想了解更多详情,请点击阅读原文:​苹果版CUDA来了!专为自家芯片打造,M3 Max可跑每秒迭代2.8次。如果您对作者或文章有任何疑问,可以联系作者微信号:AI_era。感谢阅读。

© 版权声明

相关AI热点

暂无评论

none
暂无评论...