清华校友开发的大模型,400万token推理速度提升22倍,在GitHub上获得1.8k星,备受关注!

清华校友开发的大模型,400万token推理速度提升22倍,在GitHub上获得1.8k星,备受关注!

AI GC动态欢迎阅读

原标题:400万代币,大型模型推理激增22倍!清华校友创作走红,GitHub获得1.8k个星

关键词:注意力、模型、研究人员语言

文章来源:新智元

内容字数:9827字

内容摘要:新智元报道编辑:润【新智元导读】大型模型受限于上下文长度?大语言模型的上下文长度限制将成为历史?!Meta、MIT、CMU的研究人员最近发表了一篇论文,提出了一种名为“高效流式语言模型”(Efficient Streaming Language Models,ESLM)的方法,该方法使有限上下文能力的语言模型能够支持几乎无限的上下文窗口。https://arxiv.org/pdf/2309.…

原文链接:点击此处阅读原文:400万代币,大型模型推理激增22倍!清华校友创作走红,GitHub获得1.8k个星

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。专注于人工智能、机器人等前沿领域的发展,探讨人机融合、人工智能和机器人对人类社会和文明进化的影响,引领中国新智能时代。

© 版权声明

相关AI热点

暂无评论

none
暂无评论...