
AIGC动态欢迎阅读
柏林洪堡大学最近发布了一项名为OpinionGPT的新工具,旨在揭示大型语言模型存在的偏见问题。这些模型在各种问答任务中表现出色,但是由于受训练数据的影响,它们的答案可能包含潜在偏见和观点。举例来说,当被问及列举两个著名的电视新闻频道时,根据不同的训练数据微调,模型给出的答案可能截然不同。比如,使用保守派数据训练的模型可能会回答“Fox News”,而使用自由派数据训练的模型可能会回答“the Verge”。这种现象凸显了模型在处理问题时可能存在的偏见。
原文链接:[原文链接](原文链接)
联系作者
文章来源:夕小瑶科技说
作者微信:xixiaoyaoQAQ
作者简介:夕小瑶科技说是一个聚集AI应用开发者、算法工程师和研究人员的平台,提供更快的AI前沿资讯和更深入的行业洞见。平台作者团队来自清华、北大以及国外顶级AI实验室和互联网公司,专注于结合媒体感知和技术深度进行内容创作。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关AI热点
暂无评论...