人大高瓴发布“注意力波”新方法,Llama 模型拥有 70 亿参数,堪比 GPT-4 近期,人大高瓴提出了一种名为“注意力波”方法,旨在提升大型语言模型(LLM)在处理复杂上下文时的性能。这一方法将注意力机制比作木桶中的水在不同木板停留或流动的情形,以此形象地表达模型对不同位置的关注程度。作者提出了“Attention Buckets”概念,通过不同角度的处理方式来弥补注意力机制的局... AI工具箱2年前
Mamba带火的SSM:苹果、康奈尔开始关注的注意力扩散模型 <img src=""> 《AIGC动态》欢迎阅读 原题目:丢掉注意力的扩散模型:Mamba带火的SSM被苹果、康奈尔盯上了 关键词:模型、架构、注意力、图像、序列 文章来源:机器之心 内容字数:6975字 内容摘要:近日,机器之心报道了一个备受关注的研究,康奈尔大学... AI工具箱2年前
CMU和普林斯顿合作推出新架构:推理速度提升五倍,性能全面优化 <img src=""> 近期AIGC动态 近期发布的文章标题是:新一代架构是否超越了Transformer?这一研究项目由卡内基梅隆大学和普林斯顿大学共同推出,成功实现了推理速度提升五倍并全面优化性能。 关键词包括:模型、架构、注意力、建模以及研究人员。 文章来源是... AI工具箱2年前
Transformer大模型3D可视化:GPT-3和Nano-GPT每一层清晰呈现 本文介绍了一个有关Transformer大模型的3D可视化图,展示了GPT-3和Nano-GPT每一层的清晰结构。软件工程师Brendan Bycroft制作了一个“大模型工作原理3D可视化”网站,让人们能够更直观地了解这些大型模型是如何运作的。文章中描述了1750亿参数的GPT-3模型,包含8列层... AI工具箱2年前
Meta:新型注意力机制让大模型自动过滤无关信息,准确率提升27% 本文介绍了一项关于大型深度学习模型注意力机制的新研究成果。该研究通过调整模型的注意力,使其屏蔽任务无关信息,从而提高了准确率。这种新的机制被称为“System 2 Attention”(S2A),灵感来源于心理学概念“系统2”,在这种思维模式下,模型能够进行复杂有意识的推理。通过使用提示词调整Tra... AI工具箱2年前
OpenAI调查发现ChatGPT错误率出现上升趋势;零一万物推出Yi微调模型;Adobe完成对AI视频创企的收购丨AIGC大事日报 本文来自AI导航,主要报道了AIGC产业的最新动态。其中涉及到了多个重要事件,如OpenAI针对ChatGPT错误率升高问题展开调查、零一万物推出Yi-34B-Chat微调模型及量化版、Adobe收购AI视频创企等。这些事件都在不同领域展示了人工智能技术的应用和发展。 零一万物推出的微调模型在Hug... AI工具箱2年前
揭示自我注意力推理缺陷的奥秘:蚂蚁成功自研新一代Transformer,或将实现无损外推 <img src=""> 欢迎阅读AIGC动态 原文标题:探讨自注意力推理缺陷,蚂蚁团队自研新一代Transformer或实现无损外推 关键词:模型、位置、注意力、长程、论文 文章来源:机器之心 字数:18272字 内容摘要:本文作者为蚂蚁人工智能团队,在大语言模型迅... AI工具箱3年前
GPU推理速度提升4倍,256K上下文量创全球最长:无问芯穹再次刷新大型模型优化纪录 AIGC动态欢迎阅读原标题:GPU推理提速4倍,256K上下文全球最长:无问芯穹刷新大模型优化记录关键字:矩阵,模型,阶段,部分,注意力文章来源:机器之心内容字数:5923字内容摘要:机器之心的报道指出,为了获利于大型模型,一个新兴的公司决定首先降低推理的成本。大型模型业务究竟有多成本高昂?据华尔街... AI工具箱3年前
开源语言大模型演进史:探索高质量基础模型竞赛 本文是关于开源语言大型模型发展历程的第二部分。首先回顾了创建开源大型语言模型的初衷,接着深入探讨目前最受欢迎的开源基础模型,这些模型已经经过预训练,但还未经微调或对齐。文章作者是Rebuy公司的AI总监,也是深度学习专家Cameron R. Wolfe。本文经过OneFlow编译发布,如需转载请获得... AI工具箱3年前
斯坦福博士新作:长上下文LLM推理速度提升8倍得到PyTorch官方认可 2021年8月17日,《量子位》发布了一篇名为《PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍》的文章。FlashAttention团队最新推出了一种针对Transformer架构大型模型的推理加速方法,最高可提升8倍速度。该方法特别适用于长上下文LLM,在64k长度的Code... AI工具箱3年前
抛弃「浪费」GPU,FlashAttention重磅升级,长文本推理速度提升8倍 在机器之心报道中,编辑部使用大型模型处理长文本,面临着速度挑战。最新的FlashAttention技术通过"Flash-Decoding"方法,充分利用GPU,可以将大模型的长上下文推理速度提高至8倍。近期大型语言模型(LLM)如ChatGPT和Llama备受关注,但其运行成本仍... AI工具箱3年前
揭秘“最强7B模型”:超越13B版Llama 2的秘密 文章标题为“AIGC动态欢迎阅读”,介绍了一篇关于“最强7B模型”如何超越13B版Llama 2的内容。该篇文章来源于量子位,共计3663字,旨在揭示“最强7B模型”Mistral的技术细节以及其背后的优势。Mistral不仅在各项测试指标上超越了13B的Llama 2,同时在数学、代码和推理方面也... AI工具箱3年前
StreamingLLM火了!400万token上下文、推理提速提高22倍,GitHub星标已达2.5K 文章介绍了一项名为StreamingLLM的技术,可以在上下文中包含多达400万个token,并且加快推理速度达到22倍。这项技术在GitHub上已经获得了2.5K颗星的关注。相比当前大多数LLM只能记住有限上下文的情况,StreamingLLM提供了更为强大的功能,可以更好地处理长文本的推理需求。... AI工具箱3年前
清华校友开发的大模型,400万token推理速度提升22倍,在GitHub上获得1.8k星,备受关注! AI GC动态欢迎阅读 原标题:400万代币,大型模型推理激增22倍!清华校友创作走红,GitHub获得1.8k个星 关键词:注意力、模型、研究人员、语言 文章来源:新智元 内容字数:9827字 内容摘要:新智元报道编辑:润【新智元导读】大型模型受限于上下文长度?大语言模型的上下文长度限制将成为历史... AI工具箱3年前
AI思维:3D视角下探究矩阵乘法 文章标题是"以3D视角洞悉矩阵乘法,这就是AI思考的样子",是从机器之心编译而来的。本文介绍了一种名为mm的可视化工具,可以用于展示矩阵乘法和矩阵乘法组合的执行过程。矩阵乘法作为机器学习模型的基础构建模块,是各种强大AI技术的基础,通过了解其执行方式,可以更深入地理解AI和智能化... AI工具箱3年前
贾佳亚韩松团队最新作品:两行代码实现大模型上下文窗口倍增 | 登上GitHub热榜 AIGC动态欢迎阅读原标题:贾佳亚韩松团队新作:两行代码让大模型上下文窗口倍增 | GitHub热榜关键字:模型、注意力、长度、数据、窗口这篇文章的内容来源于量子位,全文共计4214字。文章介绍了贾佳亚和韩松领导的团队提出的新方法,只需两行代码加上11小时的微调,就能将大模型的上下文窗口长度从4k提... AI工具箱3年前
中美多家研究机构联合发布综述:深度解析大模型可解释性 <img src=""> AIGC动态欢迎阅读 原标题:深度解读大型模型的可解释性,中美多家研究机构联合发布综述 关键词:模型、范式、神经元、解释性、注意力 文章来源:夕小瑶科技说 内容字数:7303字 内容摘要:夕小瑶科技说 分享来源 | 机器之心大规模语言模型在自... AI工具箱3年前
大规模模型在长序列上的关键挑战 欢迎阅读AIGC动态原标题:探讨大型模型在处理长上下文时的关键问题关键词:上下文、数据、长度、注意力、模型本文内容摘要来自人工智能学家,文章字数达到20128字。长上下文语言模型的发展成为LLM领域的一大亮点。在过去的一年中,出现了几种处理长上下文的语言模型,比如GPT-4(32k上下文)、Mosa... AI工具箱3年前
DeepMind新技术将ReLU替代softmax,为视觉Transformer带来成本降低效益 在这篇文章中,《视觉Transformer中ReLU替代softmax,DeepMind新招让成本速降》介绍了Google DeepMind团队在Transformer架构中采用ReLU替代softmax以降低成本的最新研究成果。在现代机器学习领域,Transformer架构得到了广泛应用,其中的注... AI工具箱3年前