
欢迎阅读AIGC动态
本文转载自AI前线,原标题为:谷歌开源 AI 微调方法: Distilling Step-by-Step。文章作者为Anthony Alford,译者是王强,策划者为丁晓昀。华盛顿大学和谷歌研究中心的一个团队最近开源了一种名为Distilling Step-by-Step(逐步蒸馏)的技术,用于微调规模较小的语言模型。相较于传统的微调方法,逐步蒸馏需要更少的训练数据,产生的模型更为精简,但性能却优于参数规模是它700倍的大型语言模型(LLM)。虽然大型语言模型通常在少量提示下能够在多个任务上表现出色,但由于其对内存和计算资源的要求较高,模型的托管存在较大挑战。而规模较小的模型在微调后也能够展现出不错的性能,但需要工程师手动创建符合具体任务优化的数据集。逐步蒸馏的关键理念在于利用大型语言模型自动生成一个小型微调数据集,其中包含一条输入及其对应的输出标签,以及选择该输出标签的“理由”。微调过程旨在训练这个小模型来预测输出标签并生成相应的理由。在NLP基准测试中评估时,小型微调模型的表现…
如果您对原文感兴趣,可点击此处查看原文。
联系方式
文章来源:AI前线
作者微信:ai-front
作者简介:AI前线致力于为AI爱好者、开发者和科学家提供有关人工智能领域的技术资讯、一线业界实践案例、整理业界技术分享干货以及AI论文解读。每周一公开课分享技术知识,助您全面了解人工智能技术。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...