斯坦福博士新作:长上下文LLM推理速度提升8倍得到PyTorch官方认可 2021年8月17日,《量子位》发布了一篇名为《PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍》的文章。FlashAttention团队最新推出了一种针对Transformer架构大型模型的推理加速方法,最高可提升8倍速度。该方法特别适用于长上下文LLM,在64k长度的Code... AI工具箱3年前
优化基础LLM技术:Meta版ChatGPT为长上下文提供持续预训练 AIGC动态欢迎阅读 原标题:「Meta版ChatGPT」背后的技术:持续预训练改进基础LLM处理长上下文的能力 关键词:模型、上下文、长上、任务、下文 文章来源:机器之心 内容字数:10932字 内容摘要:机器之心报道编辑 Panda W 在处理长上下文方面指出,LLaMA 在一直力有不足,而通过... AI工具箱3年前
Meta发布全新Llama 2-Long模型:史无前例的70B尺寸,引领「32k上下文」预训练模型登顶,迈过ChatGPT的巅峰 欢迎阅读AIGC动态 原文标题:Meta发布最新模型Llama 2-Long:70B尺寸,突破「32k上下文」,超越ChatGPT 关键词:模型、上下文、数据、任务 文章来源:新智元 字数统计:12616字 内容摘要:Meta发布Llama 2-Long模型,计算需求降低40%,同时保持短任务性能。... AI工具箱3年前
LLaMA2上下文扩展至100k:MIT和港中文引入LongLoRA方法 欢迎阅读AIGC动态 原标题:MIT和香港中文学院的研究者开发出了名为LongLoRA的方法,将LLaMA2模型的上下文扩展至100k 关键词:上下文、模型、研究者、长度、长上 文章来源:机器之心 内容字数:6020字 内容摘要:机器之心报道,编辑部成功扩展了大型模型的上下文长度,无需消耗过多计算资... AI工具箱3年前