UC伯克利团队发布MemGPT大模型的上下文内存管理方案,同时开源AgentLM、多模态Fuyu-8B以及数学LLEMMA等专用大模型

<img src="UC伯克利团队发布MemGPT大模型的上下文内存管理方案,同时开源AgentLM、多模态Fuyu-8B以及数学LLEMMA等专用大模型">

【AIGC动态】欢迎阅读

原标题:UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源

关键词:模型、数据、上下文、能力智能

文章来源:机器之心

内容字数:9138字

内容摘要:本周开源社区迎来新进展,推荐关注5个基础模型/精调模型项目,涵盖视觉问答、数学推理、天文多模态、医疗和代码生成;3个系统/框架/工具项目,涉及LLM上下文内存管理、推理加速和移动端大模型部署;3个Agent开发项目。①加州大学伯克利分校团队开源MemGPT,其亮点在于针对多轮对话、长文档等场景,采用虚拟上下文管理理念构建LLM操作系统,突破了4k上下文限制。

原文链接:点此阅读原文:UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专注于人工智能领域的媒体和产业服务平台

© 版权声明

相关AI热点

暂无评论

none
暂无评论...