今天的重大新闻是谷歌在自然杂志发表关于【阿尔法零】的论文:
文章40多页,简单总结一下:
战胜李世石的阿尔法狗被称为阿尔法李。阿尔法李的成长路线是先给它三千万专家棋谱图让它学习,然后再进行后期左右互搏,不断提高,最后战胜李世石。
阿尔法零的成长路线是从零开始,只有围棋规则,没有任何人类知识,全凭左右互搏(自己跟自己下)。开始随机下,靠输赢进化。结果是
3小时以前瞎下(随机)
10小时左右开始发现简单定式
15小时发现复杂定式(比如小雪崩)
20小时左右开始有战术方面的发现,比如厚势与实地的关系
40小时左右超越阿尔法李。
47小时点三3成为首选(这是阿尔法李很后期才发现的东西)
55小时左右开始发现新定式(人类没有过的定式)。
72小时出关。
出关后与阿尔法李下100盘,100:0全胜。人类下棋几千年,几千年积累起来的围棋知识,阿尔法零三天时间全部搞定。
有趣的是,阿尔法李的进化版“大师”(Master)比阿尔法李高级很多,与阿尔法零的加强版(进化40小时后)下了100盘,89:11. 似乎说明人类知识还不是完全无用。?
围棋是全信息游戏,而且结果清楚(输赢清楚),可以自学。不需要人类知识。实际上小孩子就是这样学习的。只不过这个进度太快(这要归功于他们的算法设计的很好)。
上图是文章中我觉得比较有代表性的图。图的横坐标是训练小时。可以看见阿尔法李(紫色)由于有人类帮助,开始很厉害。但40左右就被阿尔法零超越。有趣的是图b与c。图b是判断人类棋手的下一步,阿尔法李一直比阿尔法零厉害(跟人类棋谱学的嘛)。但判断输赢(图c)阿尔法零很快就超过阿尔法李(错误率趋近于零)。这说明阿尔法零看不起(懂)人类下法,它与人类有不同的下法。
伦敦当地时间10月18日18:00(北京时间19日01:00),AlphaGo再次登上世界顶级科学杂志——《自然》。
一年多前,AlphaGo便是2016年1月28日当期的封面文章,Deepmind公司发表重磅论文,介绍了这个击败欧洲围棋冠军樊麾的人工智能程序。
今年5月,以3:0的比分赢下中国棋手柯洁后,AlphaGo宣布退役,但DeepMind公司并没有停下研究的脚步。伦敦当地时间10月18日,DeepMind团队公布了最强版AlphaGo ,代号AlphaGo Zero。它的独门秘籍,是“自学成才”。而且,是从一张白纸开始,零基础学习,在短短3天内,成为顶级高手。
团队称,AlphaGo Zero的水平已经超过之前所有版本的AlphaGo。在对阵曾赢下韩国棋手李世石那版AlphaGo时,AlphaGo Zero取得了100:0的压倒性战绩。DeepMind团队将关于AlphaGo Zero的相关研究以论文的形式,刊发在了10月18日的《自然》杂志上。
“AlphaGo在两年内达到的成绩令人震惊。现在,AlphaGo Zero是我们最强版本,它提升了很多。Zero提高了计算效率,并且没有使用到任何人类围棋数据,”AlphaGo之父、DeepMind联合创始人兼CEO 戴密斯·哈萨比斯(Demis Hassabis)说,“最终,我们想要利用它的算法突破,去帮助解决各种紧迫的现实世界问题,如蛋白质折叠或设计新材料。如果我们通过AlphaGo,可以在这些问题上取得进展,那么它就有潜力推动人们理解生命,并以积极的方式影响我们的生活。”
不再受人类知识限制,只用4个TPU
AlphaGo此前的版本,结合了数百万人类围棋专家的棋谱,以及强化学习的监督学习进行了自我训练。
在战胜人类围棋职业高手之前,它经过了好几个月的训练,依靠的是多台机器和48个TPU(谷歌专为加速深层神经网络运算能力而研发的芯片)。
AlphaGo Zero的能力则在这个基础上有了质的提升。最大的区别是,它不再需要人类数据。也就是说,它一开始就没有接触过人类棋谱。研发团队只是让它自由随意地在棋盘上下棋,然后进行自我博弈。值得一提的是,AlphaGo Zero还非常“低碳”,只用到了一台机器和4个TPU,极大地节省了资源。
AlphaGo Zero强化学习下的自我对弈。经过几天的训练,AlphaGo Zero完成了近5百万盘的自我博弈后,已经可以超越人类,并击败了此前所有版本的AlphaGo。DeepMind团队在官方博客上称,Zero用更新后的神经网络和搜索算法重组,随着训练地加深,系统的表现一点一点地在进步。自我博弈的成绩也越来越好,同时,神经网络也变得更准确。
AlphaGo Zero习得知识的过程“这些技术细节强于此前版本的原因是,我们不再受到人类知识的限制,它可以向围棋领域里最高的选手——AlphaGo自身学习。” AlphaGo团队负责人大卫·席尔瓦(Dave Sliver)说。
据大卫·席尔瓦介绍,AlphaGo Zero使用新的强化学习方法,让自己变成了老师。系统一开始甚至并不知道什么是围棋,只是从单一神经网络开始,通过神经网络强大的搜索算法,进行了自我对弈。
随着自我博弈的增加,神经网络逐渐调整,提升预测下一步的能力,最终赢得比赛。更为厉害的是,随着训练的深入,DeepMind团队发现,AlphaGo Zero还独立发现了游戏规则,并走出了新策略,为围棋这项古老游戏带来了新的见解。
自学3天,就打败了旧版AlphaGo
除了上述的区别之外,AlphaGo Zero还在3个方面与此前版本有明显差别。
AlphaGo-Zero的训练时间轴首先,AlphaGo Zero仅用棋盘上的黑白子作为输入,而前代则包括了小部分人工设计的特征输入。
其次,AlphaGo Zero仅用了单一的神经网络。在此前的版本中,AlphaGo用到了“策略网络”来选择下一步棋的走法,以及使用“价值网络”来预测每一步棋后的赢家。而在新的版本中,这两个神经网络合二为一,从而让它能得到更高效的训练和评估。
第三,AlphaGo Zero并不使用快速、随机的走子方法。在此前的版本中,AlphaGo用的是快速走子方法,来预测哪个玩家会从当前的局面中赢得比赛。相反,新版本依靠地是其高质量的神经网络来评估下棋的局势。
AlphaGo几个版本的排名情况。据哈萨比斯和席尔瓦介绍,以上这些不同帮助新版AlphaGo在系统上有了提升,而算法的改变让系统变得更强更有效。
经过短短3天的自我训练,AlphaGo Zero就强势打败了此前战胜李世石的旧版AlphaGo,战绩是100:0的。经过40天的自我训练,AlphaGo Zero又打败了AlphaGo Master版本。“Master”曾击败过世界顶尖的围棋选手,甚至包括世界排名第一的柯洁。
阿尔法狗退役,最强“新狗”AlphaGo Zero横空出世
图为DeepMind AlphaGo项目首席研究员大卫席尔瓦(David Silver,左)与首席执行官德米斯哈比斯(Demis Hassabis)
席尔瓦继续称:“在每场对弈结束后,AlphaGo Zero实际上都训练了一个新的神经网络。它改进了自己的神经网络,预测AlphaGo Zero自己的棋路,同时也预测了这些游戏的赢家。当AlphaGo Zero这样做的时候,实际上会产生一个更强大的神经网络,这将导致‘玩家’进行新的迭代。因此,我们最终得到了一个新版AlphaGo Zero,它比之前的版本更强大。而且随着这个过程不断重复,它也可以产生更高质量的数据,并用于训练更好的神经网络。”
“新狗”AlphaGo Zero的未来
通过数百万次自我对弈,AlphaGo从零开始掌握了围棋,在短短几天内就积累起了人类几千年才有的知识。但AlphaGo Zero也发现了新的知识,发展出打破常规的策略和新招,与它在对战李世石和柯洁时创造的那些交相辉映,却又更胜一筹。
这些创造性的时刻给了我们信心:人工智能会成为人类智慧的增强器,帮助我们解决人类正在面临的一些严峻挑战 。
尽管才刚刚发展起来,AlphaGo Zero已经走出了通向上述目标的关键一步。对于希望利用人工智能推动人类社会进步为使命的DeepMind来说,围棋并不是AlphaGo的终极奥义,他们的目标始终是要利用AlphaGo打造通用的、探索宇宙的终极工具。
AlphaGo Zero的提升,让DeepMind看到了利用人工智能技术改变人类命运的突破。他们目前正积极与英国医疗机构和电力能源部门合作,提高看病效率和能源效率。同时类似的技术应用在其他结构性问题,比如蛋白质折叠、减少能耗和寻找新材料上,就能创造出有益于社会的突破。
本文由钛媒体编辑综述自澎拜新闻、腾讯科技等。