研究表明:谷歌TPU芯片驱动全球最大AI算力。

2年前发布AI俱乐部
17 0 0 0
摘要:

Epoch AI 近期发布了一份关于 AI 模型训练成本的报告,报告中指出,训练一个大型语言模型所需的计算资源 […]

研究表明:谷歌TPU芯片驱动全球最大AI算力。的封面图

Epoch AI 近期发布了一份关于 AI 模型训练成本的报告,报告中指出,训练一个大型语言模型所需的计算资源,相当于使用超过 60 块 Nvidia H100 GPU。

Epoch AI 的研究表明,要超越当前最先进的 Nvidia GPU 的性能,可能需要专门定制的 TPU 芯片,以便能够高效地执行 AI 模型训练任务。

该报告还深入探讨了训练 AI 模型所需的巨大算力,并指出 Nvidia 在 AI 加速计算领域占据着重要地位。早在 2022 年,Nvidia 就已售出超过 300000 块 H100 GPU 用于 AI 训练。这些加速器对于推动大型 AI 模型的快速迭代至关重要,同时也促进了相关技术的蓬勃发展。目前,包括 Oracle 和 CoreWeave、AI 初创公司 xAI 和 Inflection 等诸多企业,都在积极构建其 AI 计算基础设施。

Epoch AI 的分析强调了,为满足日益增长的 AI 计算需求,行业需要不断创新,以提供更高效的解决方案。英伟达最新的 Blackwell GPU 旨在进一步提升计算性能。预计“超级芯片”的设计,将帮助 Nvidia 在高性能计算领域保持领先地位,并在未来 12 个月内实现 Blackwell 加速器的广泛部署。

除了 Nvidia 之外,AMD、谷歌、亚马逊、Meta、OpenAI 等公司也在积极投资 AI 计算基础设施。未来,这些公司有望凭借自身的技术实力,在加速 AI 模型训练方面发挥关键作用,并进一步推动 AI 技术的发展。

© 版权声明:
本文地址:https://www.aidh.net/kuaixun/10652.html

暂无评论

none
暂无评论...