绝无仅有的首个开源MoE大型模型发布:包含7Bx8个专家,距离GPT-4最近的一款模型 本文标题为"AIGC动态欢迎阅读",介绍了首个开源MoE大模型的发布。这个MoE架构全称为专家混合(Mixture-of-Experts),被认为是离GPT-4最近的一次尝试。文章指出,这一模型的发布无需发布会或宣传视频,只使用了一个磁力链接,却引起了广泛关注。具体参数包括7B参... AI工具箱2年前
浙大等研究提出C-MCR:连接多模态对比表征无需配对数据|NeurIPS 2023 本文介绍了浙江大学等机构研究人员提出的一种名为C-MCR的新型多模态对比表征学习方法,旨在解决多模态学习中依赖配对数据的问题。该方法称为连接多模态对比表示(C-MCR),能够在缺乏配对数据的情况下,高效地训练多模态对比表征。通过将不同模态的输入编码到一个共享的语义空间中,C-MCR连接了不同对比表征... AI工具箱2年前
过多强调「对齐」可能会对「图对比学习」造成负面影响——最新研究发现 <img src=""> 标题:AIGC动态欢迎阅读 最新研究来自人民大学指出,在图对比学习中,过度强调「对齐」可能会产生负面影响。尽管更好的数据增强可以提高模型在下游任务中的泛化能力,但同时也可能削弱对比学习的原始性能。近年来,由于数据量的增加和标签信息的不足,自监... AI工具箱3年前
人大研究发现:上下文学习与对比学习在揭示ICL推理背后的隐式更新机理中的梯度更新效果有何异同? 本篇文章《AIGC动态欢迎阅读》介绍了人民大学关于上下文学习的最新研究成果。从“对比学习”的角度出发,解析了In-context Learning(ICL)背后的隐式更新机理,并提出了改进自注意力机制的思路。文章指出,Transformer等大语言模型在ICL方面表现出色,只需少量示例即可学习任务并... AI工具箱3年前
谷歌发布5B参数视觉语言模型PaLI-3,体量仅为SOTA标准的1/10,小巧高效依旧强大 阅读AIGC动态的最新消息 原标题:谷歌发布5B参数视觉语言模型PaLI-3,体量达到SOTA的1/10,更小更快却更强 关键词:模型、视觉、对比、任务、方法 文章来源:新智元 文章字数:4391字 内容摘要:最新报道由新智元编辑贝果 润提供。谷歌研究院和DeepMind研究人员发布了全新的PaLI... AI工具箱3年前