
本文为《新智元》报道的一篇关于Claude 2.1模型的文章。根据报道,该模型在上下文长度达到90K后表现出明显的性能下降。此前有人投入1016美元测试后发现这一现象。与OpenAI不同,竞争对手Anthropic发布了支持200K上下文的Claude 2.1,它将原本强大的100K上下文能力提升了一倍。200K的上下文不仅可以处理更多文档,还减少模型出现幻觉的可能性,并支持系统提示词和小工具的使用。相比于GPT-4,Claude最大的价值在于更强大的上下文能力,特别适用于处理超过GPT-4长度的长篇文档。
文章来源为《新智元》,作者微信号为AI_era,是一个专注于人工智能、机器人等前沿领域发展的平台,致力于引领中国走向智能时代。感兴趣的读者可以点击原文链接阅读详细内容。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...