普林斯顿发布34B规模数学大模型:性能媲美谷歌Minerva,参数量减少一半!550亿token专业数据训练

<img src="普林斯顿发布34B规模数学大模型:性能媲美谷歌Minerva,参数量减少一半!550亿token专业数据训练">

AIGC动态欢迎阅读

原标题:普林斯顿开源34B数学模型:性能媲美谷歌Minerva,参数少一半!550亿token专业数据训练。

关键词:数学、模型、数据、性能、问题

文章来源:新智元。

内容字数:4119字。

内容摘要:新智元报道编辑:青荻 润【新智元导读】在数学领域,一个全新的时代即将到来。LLEMMA,一个强大的数学专用语言模型,正在带来性的性能、数据集和解决方案。它不仅超越了现有开源模型,还为数学研究者们提供了开放的共享和合作机会。让我们一起探索这个数学界的巨大突破。数学,作为科学的基石,一直以来都是研究和创新的关键领域。最近,普林斯顿大学等七家机构联合发布了一个专门用于数学的大语言模型LLEMMA,性能媲美谷歌Minerva 62B,并公开了其模型、数据集和代码,为数学研究带来了前所未有的机会和资源。论文地址:https://arxiv.org/abs/2310.10631 数据集地址:https://huggingface.co/datasets/EleutherAI/proof-pile-2 项目地址:https://github.com/EleutherAI/math-lm。LLEMMA承袭了…

原文链接:点此阅读原文:普林斯顿开源34B数学大模型:性能媲美谷歌Minerva,参数少一半!550亿token专业数据训练

联系作者

文章来源:新智元。

作者微信:AI_era。

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人对人类社会与文明进化的影响,领航中国新智能时代。

© 版权声明

相关AI热点

暂无评论

none
暂无评论...