推特爆火!超越ChatGPT和Llama2,新一代检索增强方法Self-RAG来了

夕小瑶科技说 原创
作者 | ZenMoore

前言

大型语言模型(LLMs)具有出色的能力,但由于完全依赖其内部的参数化知识,它们经常产生包含事实错误的回答,尤其在长尾知识中。为了解决这一问题,之前的研究人员提出了检索增强生成(RAG),它通过检索相关知识来增强LMs的效果,尤其在需要大量知识的任务,如问答中,表现出色。

但RAG也有其局限性,例如不加选择地进行检索和只整合固定数量的段落,可能导致生成的回应不够准确或与问题不相关。

为了进一步改进,作者提出了自反思检索增强生成(Self-RAG, Self-Reflective Retrieval-Augmented Generation)。这是一个新框架,它不仅可以根据需要自适应地检索段落(即:模型可以判断是否有必要进行检索增强),还引入了名为反思令牌(reflection tokens)的特殊令牌,使LM在推理阶段可控。

实验结果显示,Self-RAG 在多种任务上,如开放领域的问答、推理和事实验证,均表现得比现有的LLMs(如 ChatGPT)和检索增强模型(如检索增强的 Llama2-chat)更好,特别是在事实性和引用准确性方面有显著提高。

论文链接:https://arxiv.org/abs/2310.11511

项目主页:https://selfrag.github.io/

方法

Self-RAG是一个新的框架,通过自我反思令牌(Self-reflection tokens)来训练和控制任意LM。它主要分为三个步骤:检索、生成和批评。

  1. 检索:首先,Self-RAG解码检索令牌(retrieval token)以评估是否需要检索,并控制检索组件。如果需要检索,LM将调用外部检索模块查找相关文档。
  2. 生成:如果不需要检索,模型会预测下一个输出段。如果需要检索,模型首先生成批评令牌(critique token)来评估检索到的文档是否相关,然后根据检索到的段落生成后续内容。
  3. 批评:如果需要检索,模型进一步评估段落是否支持生成。最后,一个新的批评令牌(critique token)评估响应的整体效用。

反思令牌(reflection tokens)

作者使用的反思令牌(reflection tokens)如下:

训练

Self-RAG 的训练包括三个模型:检索器(Retriever)、评论家(Critic)和生成器(Generator)。

首先,训练评论家,使用检索器检索到的段落以及反思令牌增强指令-输出数据。

然后,使用标准的下一个 token 预测目标来训练生成器 LM,以学习生成 自然延续(continuations)以及特殊 tokens (用来检索或批评其自己的生成内容).

推理

Self-RAG 通过学习生成反思令牌,使得在不需要训练LMs的情况下为各种下游任务或偏好量身定制模型行为。特别是:

  1. 它可以适应性地使用检索令牌进行检索,因此模型可以自发判断是不是有必要进行检索。
  2. 它引入了多种细粒度的批评令牌,这些令牌用于评估生成内容的各个方面的质量。在生成过程中,作者使用期望的批评令牌概率的线性插值进行segment级的beam search,以在每一个时间步骤中确定最佳的K个续写方案。

实验结果

Self-RAG在六项任务中均超越了原始的 ChatGPT 或 LLama2-chat,并且在大多数任务中,其表现远超那些广泛应用的检索增强方法。

以上是一些消融实验,可以看到:每一个组件和技术在Self-RAG中都起到了至关重要的作用。调整这些组件可以显著影响模型的输出性质和质量,这证明了它们在模型中的重要性。

总结

综上所述,Self-RAG 作为一种新型的检索增强生成框架,通过自适应检索和引入反思令牌,不仅增强了模型的生成效果,还提供了对模型行为的更高程度的控制。这项技术为提高开放领域问答和事实验证的准确性开辟了新的可能性,展示了模型自我评估和调整的潜力。


相关推荐

  • 聊聊昨日ChatGPT全球宕机事件,带给我们的警示
  • 一笔卖了95亿的山东博士火了
  • 我们公司的官网上线了!
  • 通用大模型引领全球创新风潮,谁将为你揭示未来科技的奥秘?
  • 1024程序员节暨「源聚一堂」开源技术沙龙(北京站)火热报名中
  • 数据分析入门:统计学基础知识总结
  • ​ChatGPT 系列研究报告(50个PDF),建了一个资料分享微信群
  • CPU&GPU天梯图(2023年最新版)
  • 支付宝芝时序图欺诈挖掘框架详解
  • AIGC时代的业务与数据,有哪些新要求?
  • 轻松利用日志动态分析平台玩转Nginx运维管理
  • 老黄最新专访:时间倒流30岁,我绝对不会创办英伟达!
  • Meta重磅更新,小扎在元宇宙里养了会做家务的狗!人形化身超逼真,AI智能体在真实物理世界和人互动
  • 超全!我常用的70个数据分析网址
  • 一段话让模型自曝「系统提示词」!ChatGPT、Bing无一幸免
  • LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数|复旦邱锡鹏团队出品
  • 用GPT-4训练机器人,英伟达最新Agent开源:任务越复杂越拿手
  • 马斯克xAI首个研究成果发布!创始成员杨格&姚班校友共同一作
  • NeurIPS 2023 | 跨模态提示:微调大型预训练模型适应音视频下游任务
  • 数学逻辑和计算机程序代码之间的深层联系:互为镜像