
本文介绍了一种扩展上下文窗口的方案YaRN,可以帮助使用大型语言模型(如GPT和LLaMA)时克服输入字符数限制的问题。当前一些模型,比如ChatGPT,存在输入字符数的限制,导致用户仅能提供有限的示例数量,从而限制了上下文学习和思维链等技术的发挥空间。该方案由Nous Research、EleutherAI和日内瓦大学的研究团队提出,并在实验中得到验证。
如需详细信息,请阅读原文:想让大模型在prompt中学习更多示例,这种方法能让你输入更多字符。联系作者:微信号almosthuman2014。作者为专业的人工智能媒体和产业服务平台。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...