APP下载

强化学习算法与应用综述①

2021-01-21李茹杨彭慧民李仁刚

计算机系统应用 2020年12期
关键词:函数算法价值

李茹杨,彭慧民,李仁刚,赵 坤

1(浪潮(北京)电子信息产业有限公司,北京 100085)

2(浪潮集团有限公司 高效能服务器和存储技术国家重点实验室,北京 100085)

3(广东浪潮大数据研究有限公司,广州 510632)

1 引言

近年来,强化学习(Reinforcement Learning,RL)因其强大的探索能力和自主学习能力,已经与监督学习(supervised learning)、无监督学习(unsupervised learning)并称为三大机器学习技术[1].伴随着深度学习的蓬勃发展,功能强大的深度强化学习算法层出不穷,已经广泛应用于游戏对抗[2-4]、机器人控制[5,6]、城市交通[7-9]和商业活动[10-12]等领域,并取得了令人瞩目的成绩.AlphaGo[2]之父David Silver 曾指出,“深度学习+强化学习=通用人工智能(artificial general intelligence)”[13],后续大量的研究成果也表明,强化学习是实现通用人工智能的关键步骤.

1.1 马尔可夫决策过程(MDP)

强化学习的核心是研究智能体(agent) 与环境(enironment)的相互作用,通过不断学习最优策略,作出序列决策并获得最大回报[14].强化学习过程可以描述为如图1所示的马尔可夫决策过程(Markov Decision Process,MDP),其中参数空间可表示为一个五元组〈A,S,P,R,γ〉,包括动作空间(action space)A,状态空间(state space)S、状态转移P:S×S×A→[0,1]、回报(reward)R:S×A→R和折扣因子(discounted factor)γ ∈[0,1].在一些情况下,智能体无法观测到全部的状态空间,这类问题被称为部分观测马尔可夫决策过程(Partially Observed Markov Decision Process,POMDP),在多智能体强化学习(multi-agent RL)设置中尤其常见[15].

图1 MDP 中智能体与环境的交互作用[14]

具体实施过程中,智能体在时刻t观测到所处环境和自身当前的状态st∈S,根据策略(policy) π,采取一个动作at∈A(S).下一个时刻t+1,环境根据智能体采取的行动给予一个回报rt+1∈R⊂R,并进入一个新的状态st+1,智能体根据获得的回报对策略进行调整,并进入下一个决策过程.MDP 过程中得到的序列为:

Herbertus giraldianus(Steph.)W.E.Nicholson.熊源新等(2006);杨志平(2006)

智能体通过不断学习,找到能够带来最大长期累积回报的最优策略π∗.时刻t之后,带有折扣因子γ ∈[0,1]的长期累积回报如下:

血清同型半胱氨酸与神经元特异性烯醇化酶联合检测对进展性脑梗死的预测价值………………………………………………………………………… 代鸣明,等(8):938

经典的策略梯度算法REINFORCE[32]使用蒙特卡洛(MC)方法估计梯度策略,具有较好的稳定性.但样本效率较低,同时MC 方法包含整个轨迹上的信息,会带来较大的策略梯度估计方差.通过引入少量噪声的无偏估计,例如在回报中减去基线的方式,能够有效降低估计方差.Kakade 在2002年提出自然策略梯度(natural policy gradient)[44]来提升算法的稳定性和收敛速度,由此引出了后续的置信域(trust region)方法,例如著名的置信域策略优化算法TRPO (Trust Region Policy Optimization)[33]和近端策略优化算法PPO(Proximal Policy Optimization)[34].TRPO 和PPO 均为同步策略(on-policy)算法,在经典策略梯度算法的基础上通过人为或自适应的方式选择超参数,将更新步长约束一定范围内,以确保每一步回报单调不减,持续获得更优的策略,防止出现策略崩溃(Policy Collapse)的问题.此外,Nachum 等在2017年提出了样本效率更高的异步策略(off-policy)置信路径一致性学习算法Trust_PCL (Trust Path Consistency Learning)[15],同年Heess 等将PPO 算法推广到分布式策略梯度的Distributed PPO 算法[45].

1.2 价值函数

当智能体学习到最优策略 π∗之后,MDP 在给定策略下退化成马尔可夫回报过程(Markov Reward Process,MRP).由此,状态价值(state value)函数Vπ(s)和动作价值(action value)函数Qπ(s,a)分别表示为:

乡村旅游顾名思义都是在乡村,且森林资源比较富集的地方。漫山遍野的花草树木能够给城市人带来好心情,同时也让他们呼吸到新鲜的空气,被赞誉为“洗肺”。但好些乡村旅游的从业者,喜欢选择靠山的地方修建房屋,大规模营造避暑山庄、乡村旅馆,结果随意砍伐树木,导致翠绿的山野呈现光秃秃的境况,他们把钢筋水泥延伸到森林中,如不加制止,破坏后果不堪设想。现在各地因乡村旅游破坏森林资源的现象普遍存在,且存在一些屡禁不止的恶习。

将上式转换为贝尔曼最优方程(Bellman optimality equations)形式即为:

获得状态价值函数和动作价值函数后,理论上可以通过策略迭代的方式获得最优策略,进而求解价值函数.但在具体的实践过程中,策略迭代效率低、计算成本高,因此通常采用人工设计的线性函数,或非线性函数(如神经网络)来近似估计价值函数[16].

1.3 探索与利用

对照组:阿托伐他汀钙胶囊,20 mg/d,1次/d,口服,连用8周。试验组:瑞舒伐他汀钙片,10 mg/d,1次/d,口服。两组患者均连续接受8周药物治疗,并在第4、8周时分别检测血脂水平。

随着网约车经济的发展,越来越多的人选择网约车的方式出行.为提升服务效果,强化学习被大量应用于网约车派单业务中.以滴滴出行AI Lab 为代表的企业研究院进行了大量的研究工作和应用实践[9,94,95].其中,乘客与潜在司机之间的距离、道路拥堵程度和司机服务评分等多种因素作为环境状态,派单系统不断优化策略进行派单,为乘客匹配最合适的司机,最小化乘客等待时间,以及减少司机空车等待时间,获得最大的收益.

1.4 本文章节设置

针对国内外强化学习的研究历程和发展现状,本文第2 章和第3 章集中阐述经典强化学习算法与前沿研究方向,第4 章介绍强化学习的应用情况,第5 章给出结论与展望.

很多学术期刊微信公众号更新频率较低,也没有形成统一规律。一般是在纸刊文章刊出后对文章进行宣传推送,或是在刊物有相关新闻报道时进行推送,有些微信公众号甚至长期没有更新,成了名存实亡的“僵尸号”。这种不定期更新的频率无法吸引读者,更无法保持固有用户的黏度。

2 强化学习经典算法

从Bellman 提出动态规划方法[19]到AlphaGo 打败人类围棋冠军[2],强化学习经历60年的发展,成为机器学习领域最热门的研究和应用方向.2006年,深度学习[20]的提出,引领了机器学习的第二次浪潮,在学术界和企业界持续升温,并成功促进了2010年之后深度强化学习的蓬勃发展.

现在北京汽车维修企业基本都要求招收高职院校或6年制中职院校毕业生,在岗维修人员如不提高诊断技术就会长期处于低技术水平从而导致被淘汰。以前汽车维修技术含量低,高级技师可以“挑大梁”,而今后则必须是精于诊断技术的技师才能“挑大梁”。我国政府号召“培育精益求精的工匠精神”,古代工匠鲁班发明锯,现代工匠工作精雕细刻。当代汽修技工必须在诊断技术上不断提高,弘扬工匠精神,才能成就维修技术人员的精彩人生。

强化学习算法有众多分类方式,如根据是否构建模型可以分为无模型(model-free) 算法和基于模型(model-based)算法;依据执行策略与评估策略是否一致,分为同步策略(on-policy) 算法和异步策略(offpolicy)算法;根据算法更新机制,分为回合更新的蒙特卡洛(Monte-Carlo,MC)算法和单步更新的时间差分(Temporal-Difference,TD)算法.其中,无模型(modelfree)算法、同步策略(on-policy)算法、时间差分算法(TD)算法,是各自分类下的主流方向,不同分类下的算法存在一定交叉.另外,依据智能体动作选取方式,可将强化学习算法分为基于价值(value-based)、基于策略(policy-based),以及结合价值与策略(actor-critic)3 类,这也是目前最主流的分类方式[21].表1中给出3 类主流强化学习算法的对照,下文将对每一类算法展开介绍.

表1 3 类主流强化学习算法对照

2.1 基于价值(value-based)的强化学习算法

基于价值(value-based)的强化学习算法通过获取最优价值函数,选取最大价值函数对应的动作,隐式地构建最优策略.代表性算法包括Q-learning[22]、SARSA[23],以及与深度学习相结合的Deep Q-Network (DQN)算法[24,25].此类方法多通过动态规划(dynamic programming)或值函数估计(value function approximation)的方法获得最优价值函数,且为确保效率采用时间差分(TD)方法进行单步或者多步更新,而不是蒙特卡洛(MC)回合更新方式.例如,异步策略(off-policy)的Q-learning算法使用非探索策略计算时间差分误差(TD error),而同步策略(on-policy)的SARSA 算法使用探索策略计算时间差分误差(TD error).Value-based 算法的样本利用率高、价值函数估值方差小,不易陷入局部最优.但是,此类算法只能解决离散动作空间问题,容易出现过拟合,且可处理问题的复杂度受限.同时,由于动作选取对价值函数的变化十分敏感,value-based 算法收敛性质较差.

近年来,发展出众多改进的actor-critic 算法,最具代表性的算法包括:确定性策略梯度算法DPG (Deterministic Policy Gradient)[37]及其深度改进版本DDPG(Deep Deterministic Policy Gradient)[38]、异步优势actor-critic 算法A3C (Asynchronous Advantage Actor-Critic)[36]、双延迟确定性策略梯度算法TD3 (Twin Delayed Deep Deterministic policy gradient)[39],以及松弛actor-critic 算法SAC (Soft Actor-Critic)[40]等.DPG算法[37]仅在状态空间整合确定性策略梯度,极大降低了采样需求,能够处理较大动作空间的问题.DDPG 算法[38]继承了DQN 的目标网络,采用异步策略的Critic估计策略梯度,使训练更加稳定简单.著名的A3C 算法[36]使用在线Critic 整合策略梯度,降低训练样本的相关性,在保证稳定性和无偏估计的前提下,提升了采样效率和训练速度.TD3 算法[39]在DDPG 的基础上,引入性能更好的Double DQN,取两个Critic 之间的最小值来限制过拟合.与TD3 同期的SAC 算法[40]中,Actor在获得最大回报之外,也具有最大熵,大大提升算法的探索能力.图4中对比了几种最先进的policy-gradient算法在同一个强化学习基准问题上的表现,整体对比效果约为SAC=TD3>DDPG=TRPO=DPG>VPG[50].其中,VPG 指经典的策略梯度算法,如REINFORCE[32].

图2 各类DQN 算法在Atari 游戏(57 种)中的表现[31]

需要指出的是,DQN 及其各变体算法(后文简称DQN 算法)虽然在以电子游戏为代表的离散动作空间问题上取得了优异的表现,甚至在一些游戏上以压倒性优势战胜人类玩家[25],但针对实际生产、生活中大量存在的连续动作空间问题,如机械手臂控制、车辆驾驶等,面向离散动作空间的DQN 算法无法应对.同时,相比SARSA 等同步策略算法,虽然异步策略的DQN 算法已经具有较高的样本效率,但正如图2所示,即使DQN 系列中最先进的Rainbow DQN 算法,在面对简单的Atari 游戏时,仍然需要学习约1500 万帧图像(样本)、持续训练1 天时间才能达到人类玩家的水平[31],而人类只需几个小时就能掌握同一游戏.因此,DQN 算法的采样效率问题仍然不可忽视.

2.2 基于策略(policy-based)的强化学习算法

尽管强化学习具有很好的研究和应用前景,但从头开始训练算法时,获取样本的代价过于高昂,严重阻碍强化学习研究与应用的发展.“Learning to learn”的元学习(meta-learning)为快速、灵活的强化学习提供了可能[65].在元强化学习(meta RL)体系当中,通过在大量先验任务(prior tasks)上训练出泛化能力强的智能体(agent)/元学习者(meta-learner),在面对新任务时只需少量样本或训练步即可实现快速适应.

一系列的实践经验证明,大口井运用一定时间后,会有不同程度的淤塞,从而出水量会大大降低。众多水文地质学家已经通过大量的理论探讨和工作时间证明:大口径辐射井技术可以用于增加单井出水量。大口井辐射井是以传统的大口井为基础,在井下部的井筒中增加了多个集水管,并将其整个径向延伸到蓄水层中,使地下水流入集水管中并最终进入取水井中。

考虑智能体所处环境的随机性,以及回报获取存在延迟,MDP 使用折扣因子反映越是深入未来的回报,对当前t时刻累积回报的贡献越小[14].

TRPO 和PPO 算法因其良好的实验效果,被选为许多研究工作的基础算法[46-49],PPO 更是成为了OpenAI的默认算法[1].然而,尽管TRPO 和PPO 算法具有十分优秀的超参数性能,在学术研究中获得了广泛关注,但是作为典型的同步策略算法,每次策略更新时都需要在当前策略下采样大量样本进行训练和确保算法收敛.因此,TRPO 和PPO 算法的局限性也非常明显,算法采样效率低,需要大量算力作为支撑,这些都极大限制了算法在应用领域的推广.

2.3 执行者-评论者(actor-critic)强化学习算法

执行者-评论者(actor-critic)算法将value-based(对应评论者,critic)方法与policy-based (对应执行者,actor) 方法进行结合,同时学习策略和价值函数[35].Actor 根据critic 反馈的价值函数训练策略,而critic 训练价值函数,使用时间差分法(TD) 进行单步更新.Actor-critic 算法的框架如图3所示.通常情况下,actorcritic 被认为是一类policy-based 方法,特殊之处在于使用价值作为策略梯度的基准,是policy-based 方法对估计方差的改进.Actor-critic 兼备policy-based 方法和value-based 方法两方面的优势,值函数估计方差小、样本利用率高,算法整体的训练速度快.与此同时,actor-critic 方法也继承了相应缺点,例如actor (policybased)对样本的探索不足,critic (value-based)容易陷入过拟合的困境.并且,本身不易收敛的critic 在与actor结合后,收敛性质更差.后续发展的算法中,通过引入深度学习等手段,在一定程度上缓解了这些问题.

图3 Actor-critic 算法框架

DQN 算法[24]中使用卷积神经网络(Convolutional Neural Network,CNN)估计价值函数,是第一个深度强化学习算法,将value-based 方法的应用范围拓展到高维度问题和连续空间问题.DQN 这种端到端(end-toend)的强化学习算法中使用经验重放(experience replay)和目标网络(target network)稳定了价值函数估计,显著降低对特定领域知识的要求,并提高了算法的泛化能力.此后,DQN 算法演化出众多变体,如使用不同网络评估策略和估计价值函数的Double DQN 算法[26],差异化不同经验重放频率的优先经验重放(prioritized experience replay)算法[27],采用竞争网络结构分别估计状态价值函数和相关优势函数、再结合两者共同估计动作价值函数的Dueling DQN 算法[28],添加网络参数噪声以提升探索度的NoisyNet 算法[29],拓展到分布式价值函数的Distributional DQN (C51)算法[30],以及综合以上各种算法的Rainbow DQN[30].这些DQN 算法能够有效解决过拟合的问题,具备更高的学习效率、价值函数评估效果和更充分的空间搜索能力,以及更广泛的适用性.图2中展示了DQN 算法及各类变种算法的性能对比.

图4 基于策略的强化学习算法(含actor-critic)在Hopper 问题的效果对比[50]

Actor-critic 的代表性算法,如DPG、DDPG、TD3 及SAC 算法,其中critic 采用了异步策略的Qlearning、DQN 算法,都是典型的异步策略算法,而A3C 可根据critic 所采用的算法进行同步/异步训练,能适用于同步策略、异步策略.因此,actor-critic 算法多是异步策略算法,能够通过经验重放(experience replay)解决采样效率的问题.然而,策略更新与价值评估相互耦合,导致算法的稳定性不足,尤其对超参数极其敏感.Actor-critic 算法的调参难度很大,算法也难于复现,当推广至应用领域时,算法的鲁棒性也是最受关注的核心问题之一.

3 强化学习前沿研究

近年来,在传统强化学习算法的基础上,结合多智能体系统理论、元学习、迁移学习等研究手段,延伸出众多前沿研究方向,如面向更现实场景的多智能体强化学习(Multi-Agent RL,MARL)、借助元学习泛化能力的元强化学习(Meta RL)、致力于解决大规模问题维度爆炸的分层强化学习(Hierarchical RL),以及迁移先验知识的强化学习等.本节选取关注度最高、研究最广泛的多智能体强化学习和元强化学习方向,介绍其中核心思想和代表性算法.

3.1 多智能体强化学习

复杂的现实场景中往往包含多个智能体协作、通信和对抗,例如生产机器人、城市交通信号灯、电商平台搜索平台等,都是典型的多智能体系统.目前,应用于多智能体系统的强化学习正在逐渐发展成为研究和应用热点[51].除了传统强化学习中的稀疏回报和采样效率问题,多智能体强化学习还面临着更多的挑战,例如多智能体如何达到纳什均衡[52],每个智能体如何应对其他智能体造成的非平稳环境,如何仅凭自身观测到的部分信息做出决策和更新策略[53],如何实现各个智能体之间的通信[54],以及在多智能体系统中十分重要的信用分配(credit assignment)问题[51].此外,当智能体数量增多时,维度爆炸的问题也愈发突出[1].

式中:为梁补差预期值(的取值在一定的区间并可正可负);H为预计竣工时桥梁高度;Hjg1为最终竣工标高。

根据任务的类型,多智能体强化学习(Multi-Agent RL,MARL)可分为完全合作、完全竞争和混合模式.MARL 的关键是学习联合动作价值函数和优秀的分布式策略,实现系统均衡和回报最优[55].早期的MARL算法,如针对两个智能体零和博弈的MiniMax-Q learning[56]、扩展到多个智能体一般和博弈的Nash-Q learning[57],以及将一般和博弈转化为两个零和博弈的FFQ (Friend-or-Foe Q-learning)算法[58],需要使用巨大空间来存储Q 值,同时线性规划也导致算法整体学习速度较慢,因此多适用于小规模的问题.此外,Tan 在1993年提出IQL (Independent Q-Learning)算法[59],按照传统强化学习的步骤对每一个智能体分别执行Qlearning.由于多智能体问题的环境是动态不稳定的,IQL 算法无法收敛,但仍在部分应用中取得良好的效果.

近几年,以actor-critic 架构为基础的MARL 算法成为重要发展方向之一.代表性算法有MADDPG(Multi-Agent Deep Deterministic Policy Gradient)[60]和COMA (COunterfactual Multi-Agent actor-critic)[61].此类算法采用集中式训练、分布式执行(centralized training for decentralized execution),利用联合动作的所有状态信息训练出一个集中的critic,每个智能体通过自身观测到的历史信息学习策略,都有自己的回报函数,并分别执行各自的actor,能够较好地处理非平衡问题,可应用于合作任务、对抗任务和混合任务.然而,这种中心化算法中critic 使用全局信息,当智能体数目增多时,算法的可扩展性较差,集中的critic 更难训练,多智能体信用分配问题更难解决.同时,一旦环境中某个智能体学习到较好的策略,其他智能体将会变得懒惰,进而影响整体进度.

不同于actor-critic 类型的方法中,每一个智能体都有各自独立的回报函数,在基于价值分解(valuedecomposition)的MARL 算法中,多个智能体通过各自的观测得到局部价值函数,再合并为联合动作价值函数,代表性算法有简单加和局部价值函数的VDN(Value-Decomposition Network)[62],以及采用非线性混合网络(mix network)来联合价值函数的QMIX[63].因此,基于价值函数分解的方法只能应用于合作问题,在此过程中理解智能体之间的关系尤为关键.此外,Yang等提出的平均场方法MFMARL (Mean Field Multi-Agent Reinforcement Learning)[64],将一个智能体与其邻居智能体间的相互作用简化为两个智能体间的关系,即智能体与其邻居智能体均值的相互作用,极大减缓了智能体数量增加带来的维数爆炸问题.平均场方法只能将智能体的动作空间进行维度缩减,而每个智能体进行策略更新时仍然需要获取全局状态信息.

3.2 元强化学习(Meta RL)

基于策略(policy-based)的强化学习算法跨越价值函数,直接搜索最佳策略.Policy-based 算法通过最大化累积回报来更新策略参数,分为基于梯度(gradientbased)算法和无梯度(gradient-free)算法[41].无梯度算法[42,43]能够较好地处理低维度问题,基于策略梯度算法仍然是目前应用最多的一类强化学习算法,尤其是在处理复杂问题时效果更佳,如AlphaGo[2]在围棋游戏中的惊人表现.相比value-based 算法,policy-based算法能够处理离散/连续空间问题,并且具有更好的收敛性.与此同时,policy-based 方法轨迹方差较大、样本利用率低,容易陷入局部最优的困境.

早期的元强化学习研究中多使用循环神经网络(Recurrent Neural Network,RNN)表示智能体[46,66].之后,加州大学伯克利分校的人工智能研究组BAIR(Berkeley Artificial Intelligence Research)提出了著名的模型无关元学习方法(Model-Agnostic Meta-Learning,MAML)[53],通过“二重梯度”算法找到泛化能力最强的参数,只需一步或几步梯度下降实现对新任务的快速适应.MAML 不限定具体的网络模型,通过改变Loss函数去解决各类问题,如回归、分类和强化学习.之后众多工作以此为基础发展出性能更优的算法,如增加结构化噪声扩大搜索范围的MAESN (Model-Agnostic Exploration with Structured Noise)算法[48],识别模型任务分布、调整参数的多模型MMAML (Multimodel Model-Agnostic Meta-Learning)算法[67].同时,MAML算法因其良好的泛化性能,已被推广到自适应控制[68]、模仿学习[69-71]、逆强化学习[72]和小样本目标推理[73]等研究领域.然而,以MAML 为基础的一系列算法中,“二重梯度”过程极大增加了计算量,同时外层循环采用TRPO、PPO 等同步策略方法,算法在元训练阶段的采样效率较低.

除了以上同步策略算法之外,Rakelly 等提出了一种异步策略的、概率表示的强化学习算法PEARL[74](Probabilistic Embeddings for Actor-critic RL),极大提高了样本效率,并采用后验采样提高探索效率,相比同步策略算法实现了20-100 倍的元训练(meta-training)采样效率提升,以及显著的渐进性能提升.同时,由于概率表示量的引入,PEARL 算法具有更强的探索能力,能够很好地解决稀疏回报问题.需要指出的是,PEARL算法并不针对一个新任务去更新策略参数,而是利用概率表示的潜在上下文信息泛化到新任务.一旦新任务与元训练任务间存在较大差异,PEARL 算法的表现将大幅下降.此外,Mendonca 等在最近的工作中提出一种新的引导式元策略学习方法GMPS (Guided Meta-Policy Search)[49],通过多个异步策略的局部学习者(local learner)独立学习不同的任务,再合并为一个中心学习者(centralized learner)来快速适应新的任务,同样实现了元训练效率跨量级的提升.此外,GMPS 算法能够充分利用人类示范或视频示范,适应稀疏回报的操纵性问题.虽然GMPS 算法在采样效率、探索效率、稀疏回报问题上均有十分优异的表现,但其中的元(训练)策略非常复杂,进一步增加了异步策略超参数的敏感性,算法的复现和应用难度极大.

4 强化学习应用

从提出至今的60 多年里,强化学习已经在科学、工程和艺术等领域获得了越来越广泛的应用,并产生了众多成功案例[1].本节选取强化学习应用较多的游戏对抗、机器人控制、城市交通和商业等领域,针对近年来的应用进展作简要介绍.

4.1 强化学习在游戏对抗领域的应用

游戏作为人工智能算法绝佳的实验床,从中诞生了众多代表性算法.在之前的众多电子游戏中,强化学习算法取得了不错的成绩,在一些游戏中甚至超过了人类玩家,例如DQN 及其各类变种在Atari 2600 游戏中表现优异[24,31].当然,最著名的还是Silver 等提出的针对零和、信息完备的回合制棋类游戏程序AlphaGo、AlphaGo Zero 和Alpha Zero[2,75,76].“Alpha 系列”使用蒙特卡洛树搜索(Monte-Carlo Tree Search,MCTS)[77]的基础架构,将价值网络(value network)、策略网络(policy network)和快速走子(fast rollout)模块结合起来,形成一个完整的系统.强化学习拓展了树搜索的深度和宽度,平衡探索(exploration)与利用(exploitation)的关系,通过智能体的自我博弈(self-play)获得了非常显著的效果.“Alpha 系列”程序先后战胜了当时的人类世界围棋冠军,并将这种优势推广到中国象棋与日本将棋.

同时,强化学习算法也被应用于多人参与游戏,如在非完备信息、涉及心理学的多人博弈游戏——德州扑克中,利用反事实后悔最小化(Counter Factual Regret minimization,CFR)[3,78]的递归推理,处理信息不对称的问题,实现广义的纳什均衡,并在六人德州扑克游戏中首次战胜了5 名人类顶尖选手.另外,地图不完全公开的多人电子游戏中,OpenAI Five 在高度复杂、局部观测、玩家高度配合的5v5 Dota2 游戏中战胜人类高手[79],Pang 等设计的程序也在StarCraft II 游戏中表现优异[4].

4.2 强化学习在机器人领域的应用

机器人是强化学习最经典也最具发展潜力的应用方向[72],强化学习核心的MDP 序列决策特性为机器人复杂的工程设计提供了可能,如机械臂运动[69-71,80],直升机、无人机操控[6,81]、机器人自动导航[82,83]等.在机器人打乒乓球[80]的应用中,机器人观测到乒乓球的位置、速度变化,以及手臂关节的位置和速度等状态信息,通过不断调整挥臂策略和动作,直至学会将不同方向飞来的乒乓球击回.近年来,基于元强化学习的机器人模仿学习获得了快速发展,在BAIR 基于MAML 算法[53]的系列工作中[69-71],分别让机器人观看人类动作示范和视频示范,通过在大量元任务上训练,逐步学会根据示范学会元学习策略.随后,机器人面对没有见到过的新任务时,能够很快完成对物品的抓取、归类等动作.另外,已经有一些研究开始探索实际生产线上的人机协作问题[84,85].

在实际的应用过程中,由于样本获取困难,智能体状态空间维度高,以及模型很难抓取动态系统的特征等问题,还没有实现真正的工业级应用[5].

4.3 强化学习在城市交通领域的应用

现代城市交通中,机动车数量日益增多,部分道路拥堵严重,行人与非机动车又具有很高的随机性,路况十分复杂,对顺畅交通和参与者的安全带来巨大挑战.由此,城市交通网络调配和机动车驾驶纷纷将目光投向人工智能技术领域,发展城市智慧交通和自动/辅助驾驶技术[86].其中,强化学习算法因其核心的MDP 过程与城市交通网络调配的需求高度吻合,获得了越来越多的关注与应用.最近的一些工作研究了实际城市交通中交通信号灯的统一调控[7,87,88],以及城市道路设计问题[89],研究如何改善真实的城市交通.同时,机动车自动/辅助驾驶技术深受各大汽车生产厂商和技术公司的关注[90].其中,辅助/自助驾驶控制系统作为MDP 过程中的智能体,通过观测机动车行驶状态、交通信号灯,以及周围车辆、行人和非机动车的运动和分布情况,充分感知周围路况信息.根据观测到的环境状态,借由基于价值函数或策略的强化学习方法,控制系统发出方向盘转向、加速、减速、急停、等待等一系列指令,辅助人类驾驶员实现智能导航、路线规划,避让行人、非机动车和紧急避险等操作,保障各交通参与者的安全和道路畅通[8].后续工作中,研究人员进一步针对城市交通中车辆稠密[91,92]和少数极端路况[93]进行自动驾驶汽车模拟.

在强化学习问题中,智能体需要平衡探索(exploration)与利用(exploitation)的关系来获得最优策略,进而得到最大累积回报[17].采取随机动作来充分探索全部不确定的策略,可能经历大量较差策略,导致回报较低;然而,持续利用现有最优策略来选取价值最高的动作,缺乏对状态空间的探索,可能导致错过全局最优策略,且回报不稳定.

针对强化学习中的探索与利用问题,多采用简单的贪婪探索,即 ε−greedy 方 法进行改善,其中ε ∈[0,1]是一个接近于0 的小量.在ε−greedy方法中,智能体有1−ε的较大概率选取现有最优策略下价值最高的动作a=argmaxa∈AQ(s,a),但同时保留ε 的小概率随机选取动作,实现对状态空间的持续探索.实现过程中,贪婪探索的 ε不断衰减,直到降低到一个固定的、较低的探索率.在 ε−greedy这类最常用的贪心探索方法之外,置信上界(Upper Confidence Bound,UCB)等方法[18]还考虑了价值函数本身的大小和搜索次数,能够自动实现探索和利用的自动平衡,并能够有效减少探索次数.

4.4 强化学习在商业领域的应用

近年来,搜索引擎、数字媒体、电子商务逐渐深入到人们的日常生活中,深刻改变了人们的生活方式.强化学习作为一种有效的基于用户与系统交互过程建模和最大化累积收益的学习方法,在信息检索、商品推荐、广告推送等场景中都具有十分广阔的应用潜力和众多成功案例[96].

相关性排序是信息检索应用的关键,而学会排序(Learning-to-Rank,LTR)又是其中的核心技术[97].信息检索系统中,搜索引擎(agent) 在用户(environment)每次请求时做出相应排序决策(action),用户根据搜索引擎给出的结果反馈点击、翻页等信号.据此,搜索引擎在收到新的请求时会做出新的排序决策.这个决策过程会持续到用户购买商品或退出搜索为止[10,98].推荐系统的核心是根据用户的历史行为,尽可能准确地推荐最符合用户偏好的商品/信息[99].在MDP 设定下,用户的偏好即环境状态,而转移函数则描述一段时间内用户偏好的动态变化属性.每次系统向用户推荐商品/信息,用户给出相应的反馈,如跳过、点击浏览或购买,其中体现用户对被推荐商品的满意度.根据用户的历史行为,系统调整对用户偏好的判定,即环境状态发生改变,并做出下一次推荐[100].推荐系统的目标是向用户推荐最相符的商品/信息,实现用户点击率和逗留时间的最大化[11].在线广告的目标是将正确的广告推送给正确的用户,强化学习在其中为广告发布者提供最大化目标的合作策略[101]和竞价策略[12],从而使广告活动的收入、点击率(Click Through Rate,CTR)或投资回报率(Rate Of Investment,ROI)最大化.

滚,二十四把壶,就那一把壶是漏的,你专提它是不?我看你狗咬石匠想挨锤哩。李老鬼这样说着,几滴老泪呱唧呱唧掉在木船上,像是摔死了几只绿色的青蛙。

1.1.3 主要试剂。1,1-二苯基-2-三硝基苯肼(DPPH,Sigma-Aldrich,USA),2,2-联氨-二(3-乙基苯并噻唑啉-6-磺酸)二铵盐(ABTS,东京化成),其他试剂均为分析纯(成都科龙)。

5 结论与展望

强化学习作为一种端到端的学习过程,以MDP 为基础做出序列决策和训练最优策略,具有很强的通用性,已经吸引了学术界与企业界的广泛关注,也被认为是实现通用人工智能的关键步骤.本文综述了强化学习算法与应用的研究进展和发展动态,重点介绍基于价值函数、基于策略搜索、结合价值与搜索的代表性强化学习方法,以及多智能体强化学习和元强化学习等前沿研究的最新进展,这些算法都促进强化学习向着更加通用化、更加便捷的方向发展.最后,本文概述了强化学习在游戏、机器人、城市交通和商业领域的成功应用,展示了强化学习智能决策特性的优势和潜力.

实地调研中,尽管村民对专合社的总体态度是认可并支持的,但是满意度却并不高。专合社刚成立时,各方发展信心都很足,理事会也很卖力,不仅引进了许多新业态,通过对村民开展相关的旅游服务技能和服务规范培训,提高了村民的服务意识。2017年,由于镇政府的大力宣传,游客很多,几乎家家户户都被分配了客源,部分家庭还多次接待游客。尤其是诗歌节期间,更是全村爆满。但是今年,政府扶持重心有所转移,游客量较去年减少,专合社的业务也少了许多,社员热情退却,开会次数也明显减少。

尽管强化学习在研究和应用领域已经取得了一定的成功,但本质上仍局限于模拟环境中理想、高度结构化的实验数据,强化学习还不具备类人的自主学习、推理和决策能力.为了进一步向通用人工智能的目标迈进,强化学习研究与应用有以下几个努力方向:

采用电抗子模块分段投切的模块化多电平换流器降电容方法//李钰,李帅,赵成勇,许建中,曹均正//(19):90

(1)借助监督学习手段,提高强化学习鲁棒性.基于策略梯度的强化学习算法是现有研究的主流,然而不可避免地带有方差大的缺点,对算法的稳定性造成影响.对此,可以结合更高效、更稳定的监督学习方法,如模仿学习(imitation learning)、行为克隆(behavioral cloning),充分利用专家经验快速训练出更优的策略.

(2)构建更智能的强化学习表示与问题表述方式.关注算法的数学本质,设计具有可解释性、简单的强化学习策略,摒弃单纯“调参”手段,从根源上拓展算法的适用性,降低算法复杂度,突破强化学习中探索与应用、稀疏回报和样本效率等核心问题.

(3)添加记忆模块,利用上下文信息增强强化学习的自主学习能力.在强化学习模型中整合不同类型的记忆模块,如LSTM、GRU 等模型,引入额外的回报和之前的动作、状态信息,使得智能体学习到更多任务级别信息,从而使智能体掌握更多的自主学习、推理和决策等功能.

(4)将元学习、迁移学习拓展到多智能体强化学习研究和应用领域.针对真实任务场景中普遍存在的多智能体系统,如生产线机器人、城市道路车辆等,避免大量智能体从头开始训练的高成本与不确定性,吸收元学习、迁移学习的思想,利用先验知识训练出快速适应新任务的模型,缓解MARL 对强大算力支撑的需求,向复杂场景的应用更进一步.

(5)开发针对实体输入的强化学习算法,应对实际工业生产应用.实际生产、生活中,智能体面对高维环境如实际物品、视频画面等实物信息,而非原始的像素级信息.在此过程中,利用无监督学习或其他机器学习技术对实物、实物间关系进行理解和特征提取,将大幅提高强化学习算法的效率,促进强化学习算法在真实场景中的应用.

猜你喜欢

函数算法价值
哪种算法简便
Travellng thg World Full—time for Rree
进位加法的两种算法
根据问题 确定算法
一粒米的价值
“给”的价值
关于函数的一些补充知识
高中数学中二次函数应用举隅オ
无独有偶 曲径通幽
小黑羊的价值