学术前沿 | 更高效的RLHF技术
导读
北京大学人工智能研究院多智能体研究中心杨耀东助理教授团队联合伦敦国王大学Dr. Yali Du团队在NeurIPS 2022 发表论文 Meta-Reward-Net: Implicitly Differentiable Reward Learning for Preference-based Reinforcement Learning。
该工作提出了一个反馈高效的偏好强化学习(Preference-based Reinforcement Learning,PbRL)算法Meta-Reward-Net(MRN),MRN能够在学习奖励函数的同时关注Q函数的表现。实验证明了所提出算法的有效性,在少量人类偏好的情况下,MRN能够比之前的方法学到更加准确的Q函数和更好的策略。目前,该项技术正在被测试用于大语言模型的对齐问题中。目前,该项技术正在被测试用于大语言模型的对齐问题中。
论文链接:(点击下方阅读原文)
https://openreview.net/forum?id=OZKBReUF-wX
自2022年11月发布以来,ChatGPT[1]在全球掀起了轩然大波。仅仅两个月的时间,月活跃用户就已经达到了1亿,创造了全新的用户增长速度纪录。在ChatGPT中,OpenAI的研究者采用了人类反馈强化学习(Reinforcement Learning from Human Feedback,RLHF)技术,通过训练奖励函数对模型进行微调,从而使其生成的内容更符合人类价值观。如图1所示,ChatGPT在步骤2中使用经过人类排序的回答数据训练奖励函数(Reward Function),随后在步骤3中利用该奖励函数微调(Fine-tune)模型。值得一提的是,在OpenAI最新发布的GPT-4[2]中,我们仍然可以看到RLHF技术的身影。
图1 ChatGPT框架图[1],其中步骤2使用了RLHF技术训练奖励函数
除了在ChatGPT等模型中展现出强大的威力,RLHF技术在强化学习任务中也发挥着重要作用。在常见的决策任务中,智能体的目标是最大化累积回报。然而,强化学习的一个核心挑战是如何设计奖励函数。一方面,奖励函数的质量在很大程度上取决于问题解决者对任务目标、操作逻辑和相关背景知识的理解。另一方面,智能体可能会通过破解奖励函数,而不是真正解决目标任务,来最大化累积奖励。此外,在一些涉及人类的场景中,智能体的目标是最大化人类的满意度,但是指定奖励函数往往非常困难。RLHF技术可以通过监督学习的方法学习到与人类反馈相一致的奖励函数,从而可以将奖励与人类价值观直接对齐。如图2所示,人类专家为智能体的轨迹提供人类反馈,从而可以通过人类反馈学习奖励函数,并通过预测的奖励学习强化学习策略。
图2 RLHF框架图[3]
然而,反馈效率一直是RLHF算法的一个瓶颈。反馈效率指的是如何在有限的人类反馈下最大化学习效果。由于人类专家标注的偏好数据通常是比较昂贵的,现有方法往往需要较多的人类反馈进行学习,因此反馈效率较低。此外,之前的RLHF算法只通过人类偏好学习奖励函数,因此当人类反馈较少时,RLHF算法学习出的奖励函数是不准确的,进而影响Q函数和策略的学习。这一现象被称为确认偏差(Confirmation Bias),即一个神经网络过拟合到了另一个神经网络不准确的输出。
本工作关注RLHF算法的反馈效率问题。考虑到奖励函数和Q函数的作用关系,我们提出了一个教师-学生的教学方法,以更好地利用有限的人类反馈。我们将奖励函数视为教师网络,将Q函数视为学生网络,在学习奖励函数的同时,额外关注Q函数的表现。我们使用双层优化方法(Bi-level Optimization)建模整个过程,算法框架如图3所示。具体来说,在内层循环中,MRN通过奖励函数更新Q函数和策略;在外层循环中,MRN根据Q函数在偏好数据上的评估损失优化奖励函数。这样奖励函数在通过人类反馈学习的同时,可以额外关注Q函数的准确性,从而提高反馈效率。
图3 MRN算法框架。①策略与环境交互时会采集数据,奖励函数会对数据标注奖励标签。②策略和Q函数使用由最新的奖励函数标注的数据进行学习。③使用Q函数在偏好数据上做测试,为奖励函数学习提供隐式梯度。
然而,由于Q函数和奖励函数的参数之间没有显式关系,MRN首先采用伪更新的方法建立了Q函数与奖励函数的关系,具体来说,MRN算法利用奖励函数的输出来对拷贝的Q函数进行一步更新,并用拷贝的Q函数在人类反馈数据上进行测试,计算损失。根据链式法则,该损失可以用于对奖励函数计算隐式梯度,从而更新奖励函数的参数,使其在学习人类反馈的同时,关注Q函数的表现。
此外,本工作对MRN算法的收敛性进行了分析。MRN通过双层优化框架进行建模,涉及外层损失和内层损失,定理1和定理2分别对外层、内层损失进行了分析。定理1证明了MRN算法的外层损失在一些温和条件下的收敛速率。在相同条件下,定理2证明了MRN算法内层损失的收敛性。
图4 MRN算法的收敛性分析
为了评估MRN算法是否有效地提高了反馈效率,本工作在Meta-world[4]的六个机器人操纵任务和DeepMind Control Suite(DMControl)[5,6]的三个智能体移动任务上进行了实验评估。
图5 Meta-world六个任务的训练曲线,实线和阴影分别表示10个种子的均值和标准差
图6 DMControl三个任务的训练曲线,实线和阴影分别表示10个种子的均值和标准差
图5和图6展示了MRN和其他基线方法的训练曲线。在图中,由于使用真实奖励函数进行学习,SAC(蓝线)在所有任务中表现最好,作为所有RLHF方法的上界。由于提供的反馈较少,所有RLHF方法与SAC上界之间存在差距,但MRN仍然在很大程度上超过了RLHF基线。实验结果表明,MRN显著提高了RLHF算法的反馈效率。
本工作提出了一种反馈高效的偏好强化学习方法MRN,在学习奖励函数的同时,将Q函数与人类偏好对齐,从而可以学习到更准确的Q函数。实验证明了当人类反馈较少时,MRN超越了之前的RLHF方法,并显著提高了各种机器人模拟任务的反馈效率。当人类反馈很少时,MRN大大超越了RLHF基线方法。
未来,RLHF算法仍有许多值得探究的方向:例如如何进一步提高RLHF算法的反馈效率,如何只使用很少的人类反馈即可学习到优异的策略,如何有效地将RLHF算法拓展到图像输入的强化学习任务上,以及如何更加鲁棒地从含有噪声的人类反馈中进行学习。
References
[1] OpenAI. Openai: Introducing ChatGPT, 2022. URL https://openai.com/blog/chatgpt.
[2] OpenAI. Gpt-4 technical report, 2023. arXiv preprint arXiv:2303.08774.
[3] Paul F Christiano, Jan Leike, Tom Brown, Miljan Martic, Shane Legg, and Dario Amodei. Deep reinforcement learning from human preferences. In Advances in Neural Information Processing Systems (NeurIPS), 2017.
[4] Tianhe Yu, Deirdre Quillen, Zhanpeng He, Ryan Julian, Karol Hausman, Chelsea Finn, and Sergey Levine. Meta-world: A benchmark and evaluation for multi-task and meta reinforcement learning. In Conference on Robot Learning (CoRL), volume 100, pages 1094–1100. PMLR, 2020.
[5] Yuval Tassa, Yotam Doron, Alistair Muldal, Tom Erez, Yazhe Li, Diego de Las Casas, David Budden, Abbas Abdolmaleki, Josh Merel, Andrew Lefrancq, et al. Deepmind control suite. arXiv preprint arXiv:1801.00690, 2018.
[6] Saran Tunyasuvunakool, Alistair Muldal, Yotam Doron, Siqi Liu, Steven Bohez, Josh Merel, Tom Erez, Timothy Lillicrap, Nicolas Heess, and Yuval Tassa. dm_control: Software and tasks for continuous control. Software Impacts, 6:100022, 2020.
— 往期发布 —
学术前沿 | 人工智能研究院朱毅鑫及智能产业研究院赵昊团队在提升机器人指向型手势理解能力方向取得重要进展
点击图片查看原文
学术前沿 | 面向边缘智能传感器的数据转换器研究进展
点击图片查看原文
学术前沿 | 人工社会智能——迈向通用人工智能的关键挑战
点击图片查看原文
— 版权声明 —
本微信公众号所有内容,由北京大学人工智能研究院微信自身创作、收集的文字、图片和音视频资料,版权属北京大学人工智能研究院微信所有;从公开渠道收集、整理及授权转载的文字、图片和音视频资料,版权属原作者。本公众号内容原作者如不愿在本号刊登内容,请及时通知本号,予以删除。