Categories
程式開發

DeepMind推出Agent57,在所有雅达利游戏上超越人类


谷歌旗下DeepMind的研究人员开发了一款名为Agent57的强化学习(RL)系统,该系统在街机学习环境下的全部57款雅达利2600游戏中得分都超过了人类。Agent57是第一个在这种最难的游戏上全面超越人类的系统。

研究人员在arXiv上发表的一篇论文中介绍了这个系统以及一系列的实验。Agent57基于的是DeepMind之前关于永不放弃(NGU)算法强化学习的工作成果。其底层架构由一个神经网络组成,该网络编码一组策略,范围从探索到利用,使用自适应机制在整个培训过程中对不同的策略进行优先级排序。另外的改进是,通过增加训练的稳定性来解决长期的可信度赋值问题。通过这些改进,Agent57在所有游戏中的得分中值都高于NGU。此外,在之前的人工智能系统根本不能玩的游戏中,Agent57的得分表现也优于人类。

尽管DeepMind的大部分研究都集中玩游戏的AI上,包括像AlphaGo研究的经典棋盘游戏,据该团队他们的说法,其目标是“使用游戏作为系统开发的垫脚石,让AI应对更广泛的挑战。”研究人员认为雅达利2600系列游戏是用于评定RL表现的一个很好的基准,因为每款游戏都足以代表一个实际的挑战,而整个系列包含非常多品种,提供足够的多样化。尽管经过多年的研究,深度Q-Networks (Deep Q-Networks,首个在多款游戏中实现人类水平表现的系统)也进行了多项改进,“所有深度强化学习代理始终未能在四款游戏中得分:蒙特祖玛的复仇(Montezuma’s Revenge)、陷阱(Pitfall)、飞向太空(Solaris)和滑雪(Skiing)。”若要玩好这些游戏,需要系统解决RL中的两个难题:探索-利用问题和长期信度分配问题。

探索-利用权衡是行为人在选择已经学习的策略和探索新的策略之间所必须达到的平衡。像《陷阱》和《蒙提祖玛的复仇》这样的游戏要求玩家在获得任何奖励之前先探索游戏“世界”。Agent57的前身NGU使用了一种通过检测新的游戏状态而产生内在奖励的方式。于是,它学习了一套探索和利用政策。Agent57使用一个多臂bandits 元控制器改进了这一点,该控制器在训练期间调整了探索-利用平衡。

当代理采取的行动有延迟的报酬时,就会出现长期信度分配问题。例如,在滑雪游戏中,直到游戏结束才会给出分数,因此系统无法轻松学习游戏开始后不久所采取的动作的效果。Agent57对NGU的改进是将agent的神经网络分为两部分:一部分学习预测行为的内在奖励,另一部分学习预测行为的外在奖励。研究人员发现,这“显著”提高了训练的稳定性。

DeepMind团队将Agent57的性能与其他几个系统进行了比较,包括NGU、循环回放分布式DQN (R2D2)和MuZero。尽管MuZero在整个套件中拥有最高的平均值和中位数得分,但有一些游戏它“根本”就不会玩,得到的分数并不比随机策略好多少。Agent57在最难的20%的游戏中获得了最好的分数,并且是唯一在所有游戏中都超过人类表现的系统。

骇客新闻关于Agent57的讨论中,一名用户指出:

整个进化过程看起来越来越像20世纪80年代的专家系统,人们不断地添加越来越多的复杂性来“解决”一个特定的问题。对于强化学习,开始的时候,是简单而优雅的DQN,而现在新的算法看起来像一个巨大的修修补补的大杂烩。事实上,NGU极度复杂,看起来像是打满各种补丁的临时组合。现在在NGU的顶部,我们还加入了元控制器,甚至是bandits ,最终成就了一款几乎无所不包的工具。

DeepMind成立于2010年,2014年被谷歌收购。DeepMind开发的AlphaGo在2016年击败了最优秀的人类围棋选手之一。

原文链接:

DeepMind’s Agent57 Outperforms Humans on All Atari 2600 Games

译者简介:

冬雨,小小技术宅一枚,关注编程、软件工程、敏捷、DevOps、云计算等领域,非常乐意将国外新鲜的IT资讯和深度技术文章翻译分享给大家。