欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 健康 > 美食 > 【论文阅读】RAG-Reward: Optimizing RAG with Reward Modeling and RLHF

【论文阅读】RAG-Reward: Optimizing RAG with Reward Modeling and RLHF

2025/1/27 12:28:47 来源:https://blog.csdn.net/qq_41502855/article/details/145359357  浏览:    关键词:【论文阅读】RAG-Reward: Optimizing RAG with Reward Modeling and RLHF

研究背景

  1. 研究问题:这篇文章要解决的问题是如何优化检索增强生成(RAG)系统,特别是通过奖励建模和人类反馈强化学习(RLHF)来提高大型语言模型(LLMs)在RAG任务中的效果。
  2. 研究难点:该问题的研究难点包括:如何定义评估生成质量的指标,如何构建高质量的偏好数据集,以及如何有效地利用LLMs进行自动标注。
  3. 相关工作:该问题的研究相关工作有:HH-RLHF、PRM800K、RAG-Truth等,这些工作分别评估语言的帮助性、无害性、逐步正确性以及检测RAG系统中的幻觉现象。

研究方法

这篇论文提出了RAG-Reward,一种用于优化RAG的数据集和方法。具体来说,

  1. 数据集构建:首先,从QA、data2Text和Summary三个领域选择了现有的RAG数据集,包括WebGLM、Yelp和XSum。然后,使用12个开源和专有LLMs(如GPT-4和Llama-3系列)生成多样化的响应。对于每个数据集中的每个提示,随机选择两个LLMs的响应进行比较。

  1. 自动标注:使用GPT-4o作为评判者,根据四个关键指标(幻觉、全面性、冗长性和归因)对生成的响应进行比较。这些指标由人类专家精心选择和定义。通过多数投票法构建偏好对,最终收集了35K的高质量训练样本。

  2. 奖励建模采用Bradley-Terry奖励模型来学习偏好信号。具体来说,使用Llama-3.1-8B-Instruct作为基础模型进行训练,学习率为2e-6,全局批量大小为64,最大长度为4096,训练1个epoch。

  3. 强化学习使用RAFT算法进行偏好对齐。RAFT利用reward model从N个候选响应中选择得分最高的响应,并在该响应集上微调策略模型。实验中设置N=16,初始策略模型为Llama-3.2-3B-Instruct和Mistral-7B-Instruct-v0.1,微调学习率为5e-6,训练1个epoch。

实验设计

  1. 数据收集:从WebGLM、Yelp和XSum数据集中收集了11000、12000和12000个训练样本,分别用于问答、数据到文本和总结任务(这35K用于训练reward model)。每个数据集还包含500个测试样本。
  2. 实验设计:使用35K偏好对进行奖励建模,并创建一个3K样本的开发集用于RLHF训练期间的采样和学习。使用1.5K样本的保留测试集评估策略和奖励模型的性能。
  3. 样本选择:对于每个问题和其对应的参考,随机选择两个LLMs的生成响应形成偏好对。
  4. 参数配置:奖励模型使用Llama-3.1-8B-Instruct进行训练,学习率为2e-6,全局批量大小为64,最大长度为4096,训练1个epoch。RAFT算法中,初始策略模型为Llama-3.2-3B-Instruct和Mistral-7B-Instruct-v0.1,微调学习率为5e-6,训练1个epoch。

结果与分析

  1. 奖励模型性能:奖励模型在三个任务上的准确率分别为WebGLM 84.8%、Yelp 88.2%、XSum 78.4%,平均准确率为83.8%。这表明奖励模型能够有效地对齐生成质量。

        2. 偏好对齐:使用RAFT算法进行偏好对齐后,策略模型在三个任务上的胜率分别为  WebGLM 66.8%、Yelp 54.4%、XSum 68.2%,平均胜率为63.1%。这表明对齐训练显著提高了策略模型的性能。

        3. 自我评估:随机选择1000个样本进行重新评估,结果显示GPT-4o的自我评估一致性率超过90%,表明标注数据集的高质量和稳定性。

        4. 人类评估:随机选择100个样本进行人类评估,结果显示人类评估与GPT-4o标注数据集的一致性率为71%,表明AI辅助标注在多个RAG任务中的潜力。

总体结论

这篇论文介绍了RAG-Reward,一个高质量偏好数据集,旨在优化检索增强生成(RAG)系统。通过自动AI标注管道和GPT-4o评估,构建了涵盖多个领域的多样化基准数据集。实验结果表明,RAG-Reward在奖励建模和强化学习中表现出色,验证了其有效性和数据集质量。

优点与创新

  1. 引入RAG场景的奖励建模方法:论文提出了一种针对RAG场景的奖励建模方法,并发布了一个高质量的35K偏好标注数据集,以支持未来的研究。
  2. 综合评估指标:定义了一套综合评估RAG质量的指标,并指导数据集构建过程。
  3. 广泛的实验验证:进行了广泛的实验来评估奖励模型,训练策略模型,并展示了该方法在提高RAG性能方面的有效性。
  4. 自动化的LLM注释管道:开发了一种新颖的自动化LLM注释管道,生成高质量的偏好数据集RAG-Reward。
  5. 多领域数据集:数据集跨越多个领域,包括问答、数据到文本和摘要,形成了一个大规模且多样化的基准。
  6. 高一致性率:通过自我评估和人类评估,验证了GPT-4o生成的标签具有高度一致性,确保了数据集的质量。

不足与反思

  1. 现有奖励模型的局限性:许多现有的奖励模型在评估聊天、安全和推理任务时表现出色,但在RAG场景中的整体准确性低于80%,显示出显著差距。
  2. 领域特定训练数据的必要性:当前主要在推理任务上训练的奖励模型可能无法有效泛化到评估RAG特定的生成内容,表明领域特定的训练数据对于缩小这一差距和提高RAG性能评估至关重要。

关键问题及回答

问题1:RAG-Reward数据集的构建过程中,如何选择和生成多样化的响应?

在RAG-Reward数据集的构建过程中,研究团队采用了多种策略来确保生成的响应具有多样性和高质量。具体步骤如下:

  1. 数据集选择:选择了三个现有的RAG数据集,包括WebGLM(问答)、Yelp(数据到文本)和XSum(总结)。
  2. 模型选择:使用了12个开源和专有的LLMs,包括GPT-4和Llama-3系列,以确保生成的响应具有多样性。
  3. 响应生成:对于每个数据集中的每个提示,随机选择两个LLMs生成响应。这样可以确保每个提示都有两种不同的生成结果,从而增加数据的多样性。
  4. 评判标准:使用GPT-4o作为评判者,根据四个关键指标(幻觉、全面性、冗长性和归因)对生成的响应进行比较,构建偏好对。

通过这些策略,RAG-Reward数据集成功地收集了35K高质量的训练样本,确保了数据集的多样性和可靠性。

问题2:RAG-Reward数据集的标注方法是如何确保标注的一致性和质量的?

RAG-Reward数据集的标注方法通过以下步骤确保标注的一致性和质量:

  1. 使用GPT-4o进行标注:研究团队使用GPT-4o作为主要标注工具,通过提示GPT-4o比较两个生成的响应,并根据四个关键指标(幻觉、全面性、冗长性和归因)选择偏好响应
  2. 多轮标注:为了确保标注的一致性,研究团队设计了多轮标注流程。具体来说,对于每个数据集中的每个提示和对应的偏好对,GPT-4o会被要求重新评估其之前的判断,确保其选择的响应在所有指标上都是一致的。
  3. 自我评估:研究团队还进行了自我评估,随机选择1000个样本进行重新评估,测量GPT-4o在不同任务上的标注一致性。结果显示,整体一致性率超过90%,表明GPT-4o能够提供稳定且一致的标注结果。
  4. 人工评估:为了进一步验证标注质量,研究团队还进行了人工评估。随机选择100个样本,由标注员根据相同的标准进行评估。结果显示,人工评估与GPT-4o标注的一致性率为71%,展示了AI辅助标注在多个RAG任务中的潜力。

通过这些方法,RAG-Reward数据集确保了标注的高质量和一致性,为后续的奖励建模和强化学习提供了可靠的基础。

问题3:RAG-Reward数据集在奖励建模和偏好对齐实验中的表现如何?

RAG-Reward数据集在奖励建模和偏好对齐实验中表现出色,具体结果如下:

  1. 奖励模型性能:奖励模型在三个任务上的准确率分别为WebGLM 84.8%、Yelp 88.2%、XSum 78.4%,平均准确率为83.8%。这表明奖励模型能够有效地对齐预期标准,区分选定的响应和被拒绝的响应。
  2. 偏好对齐效果:经过一次RAFT迭代后,策略模型在三个任务上的胜率分别为WebGLM 66.8%、Yelp 54.4%、XSum 68.2%,平均胜率为63.1%。此外,GPT-4o也倾向于选择后训练策略模型生成的响应,平均胜率为66.2%。这些结果表明,RAFT算法能够有效地利用奖励模型进行偏好对齐,显著提升策略模型的性能。

总体而言,RAG-Reward数据集在奖励建模和偏好对齐实验中表现出色,验证了其在提高RAG系统性能方面的潜力。研究结果为未来的RAG系统评估和生成提供了新的思路和工具。

问题4: Reward模型和Policy模型分别是如何进行测评的? 

奖励模型(Reward Model)的评估:

  1. 训练:奖励模型通过偏好数据集进行训练,该数据集由多个候选响应对组成,每个对包含一个被选中的响应和一个被拒绝的响应。奖励模型的目标是学习一个能够区分这些响应的奖励函数。

  2. 评估

  • 准确性(Accuracy):在测试阶段,奖励模型为每对候选响应分配分数,并计算其准确性。准确性: prefer response score > reject response score, scores由reward模型给出。
  • 跨任务一致性:奖励模型在多个任务上进行评估,以确保其在不同场景下的泛化能力。

策略模型(Policy Model)的评估:

  1. 基线模型:首先,使用未经微调的策略模型生成响应。

  2. 微调:使用奖励模型和强化学习算法(如RAFT)对策略模型进行微调。微调的目标是提高策略模型生成高质量响应的能力。

  3. 评估

  • 胜率(Win Rate):在测试集上,裁判对SFT后和SFT前模型的回答进行选择。胜率定义为SFT后策略模型生成的响应被选中的比例。裁判:reward模型、GPT-4o、人类裁判。
  • 一致性:通过比较人类评估者和奖励模型的评估结果来评估一致性,以确保奖励模型的评估结果与人类偏好一致。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com