Press "Enter" to skip to content

用两个字对抗虚假“事实”

受到记者的启发,研究人员发现了一种将大型语言模型的回答与现实联系起来的新技术。 ¶ 图片来源:Getty Images

约翰·霍普金斯大学(JHU)的研究人员已经开发出一种通过在大型语言模型(LLMs)的查询中加入“根据”来减少幻觉的方法。

使用这种方法,LLMs被引导到从其训练数据中引用可信资源,而不是产生虚假的回答。

研究人员使用之前在JHU开发的Data Portraits工具验证了LLM的回答是否存在于训练数据集中,而无需下载大量文本。

他们观察到,当“根据”这个关联提示被纳入查询中时,LLM的QUIP(引用信息准确性)得分提高了5%到15%。

关联提示还可以生成更详细和准确的回答。

约翰·霍普金斯大学的Daniel Khashabi表示:“我们的目标是使模型能够访问有用的内容,比如从高质量或可信文档中记忆的字符串。”

由于回答的准确性取决于训练数据集的质量,该方法可以过滤掉来自声誉不好的网站的数据。来自约翰·霍普金斯大学Hub的完整文章

Leave a Reply

Your email address will not be published. Required fields are marked *