欢迎来到俺回啦 撸撸撸中文网 黄色图片 撸多宝 婷婷色五月 色五月女王来了网,我们因为缘分而相聚。请记住我们的网址:4vvvv.com。俺回啦 撸撸撸中文网 黄色图片 撸多宝 婷婷色五月 色五月女王来了网提供更多更好看的东东都在这里

摘要: 长江证券财富管理

三天超越三千年

 

三天超越三千年

 

掀翻世界围棋冠军后仅仅19个月,计算机程序AlphaGo跨越了一个更大的障碍:它现在能全凭自学达到前所未有的围棋水平。



取名AlphaGo Zero的新版程序刚开始对围棋策略一无所知,在不接受任何人为训练的情况下,只用了三天时间,就创造出几千年来人类围棋手从未想到的高明策略。这项突破让人工智能摆脱对人类知识的依赖,为智能机器的未来消除了一个主要限制。

早期版本的AlphaGo在人类的指导下,利用两种方法来学习围棋。

一是监督学习,研究人员把10万场业余高手的对局输入程序,教它模仿人类的走法

二是强化学习,他们让程序自己下棋,从结果中吸取经验教训

 


AlphaGo Zero跳过了第一步。该程序从白丁开始,只知道围棋的规则,自己跟自己对弈。

起初,它把棋子随机地放在棋盘上。随着时间的推移,它能更好地评估棋盘上的局势,发现有利的落子位置。它还学会了围棋策略中的很多诀窍,自己发明了新招数。

“如果你学习模仿人类,那最多也就只能模仿人类而已,”密歇根大学计算机科学家桑汀德·辛格(Satinder Singh)说,“在很多复杂的局面中,存在着你永远发现不了的新见解。”

经过三天的训练和490万场练习赛后,研究人员让AlphaGo Zero和曾经打败世界围棋冠军的旧版AlphaGo一决高下。

AlphaGo Zero取得了100:0的全胜战绩。

在行家眼中,这个结果令人震惊。围棋比国际象棋复杂得多,走法多不胜数,单纯的强化学习似乎无法掌握,你会认为AlphaGo Zero将永远摸不着头绪,盲目地寻找可行的策略。然而,它很快就培养出了人类无法企及的能力。

 


高效的学习过程归功于反馈回路。和其前身一样,AlphaGo Zero通过一个名为“树搜索”的过程来确定下一步棋的走法。该程序从当前的盘面入手,考虑可能的落子位置,接着考虑对手会怎么下,然后再考虑自己如何应对,以此类推,形成一个模拟不同落子组合、产生不同盘面的分支树图。

AlphaGo Zero无法穷尽搜索树的每个分支,因为这需要极为强大的计算能力。它通过确定哪些路径最有取胜希望,有选择地修剪枝丫。它根据以前学到的致胜走法和盘面,来计算应该修剪哪些枝丫。

 


早期版本的AlphaGo也是这么做,但AlphaGo Zero的新颖之处在于,它不是运行树搜索,然后走一步棋,而是记住树搜索的结果以及对弈的结果,然后利用这些信息,调整它对具有取胜希望的走法和不同落子位置的致胜可能性的判断。

因此,下一次运行树搜索的时候,它能利用改善后的判断(经由以前的树搜索结果加以训练),来进一步改善对最佳可能走法的判断。

AlphaGo Zero背后的计算策略很有效,特别是在拥有众多可能性、需要找到最优解的情况下。在描述AlphaGo Zero研究的论文中,作者们写到,他们的系统可用于材料研究(识别让材料具有不同属性的原子组合)和蛋白质折叠(了解蛋白质的三维结构如何决定其功能)。

至于围棋,AlphaGo Zero带来的影响可能是惊天动地的。迄今为止,游戏公司未能开发出世界级的围棋软件。AlphaGo Zero可能改变这一点。

美国围棋协会执行副总裁安德鲁·杰克逊(Andrew Jackson)认为,不久后围棋应用程序将面市。这将改变人类围棋手的训练方式,也将使作弊变得更容易。

对于AlphaGo来说,其未来是无限宽广的。围棋十分复杂,没人知道一个能够自学的计算机程序将达到怎样的高度。现在,AlphaGo有了能够匹配围棋之广博的学习方法。

 

翻译:于波

来源:Quanta Magazine



AlphaGoZero:为什么只有虚竹能够破珍珑棋局

 

金庸小说《天龙八部》第三十一章《输赢成败,又争由人算》中有一个天下闻名的珍珑棋局,无崖子的大弟子苏星河穷尽三十年时间也破解不了:

“这个珍珑棋局,乃先师所制。先师当年穷三年心血,这才布成,深盼当世棋道中的知心之士,予以破解。在下三十年来苦加钻研,未能参解得透。”

就连段誉、慕容复等棋艺冠绝天下的当世才俊也铩羽而归,最后反而被几乎不懂围棋的虚竹随意一落子破解了:

“珍珑的秘奥正是要白棋先挤死了自己一大块,以后的妙着方能源源而生,这等“挤死自己”的着法,实乃围棋中千古未有之奇变,任你是如何超妙入神的高手,也决不会想到这一条路上去。任何人所想的,总是如何脱困求生,从来没人故意往死路上去想。若不是虚竹闭上眼睛、随手瞎摆而下出这着大笨棋来,只怕再过一千年,这个珍珑也没人能解得开。”

为什么那么多超妙入神的高手不如一个几乎不懂围棋的和尚的随手一子?人类已有的经验往往会成为自身最大的束缚,它会让我们的探索停留在已有的经验范围内,“站在巨人肩膀上”的“巨人”往往也会挡住人类突破创新的视角。10月19日凌晨,谷歌旗下Deepmind团队在《自然》杂志发表的论文《无须人类知识掌握围棋》中提出了新一代的AlphaGoZero,完成了和金庸小说中的虚竹一样的“传奇”:从未看过任何人类棋谱学习围棋知识,却战胜了所有依赖人类经验数据的AlphaGo前辈们。

 

首先我们用最通俗的方式解释下AlphaGoZero的根本原理:

 

1.AlphaGoZero还不是“围棋之神”,一直以来计算机下围棋的主要工作就是如何在降低搜索计算量的前提下逼近最优解。围棋作为一种完全信息零和博弈,理论上是可以通过穷举搜索来找到最优解。因为所有可能的下棋路数加起来都是有限的,只是计算量大到几乎不可能完成(很多人把AlphaGoZero比作“围棋之神”其实是不恰当的,真正的“围棋之神”确实存在:即穷举计算后的最优解)。所以一直以来计算机下围棋的重要工作就是如何在降低搜索计算量下逼近这个最优解。这也是为什么我们在各个版本的AlphaGo中都看到了蒙特卡罗树搜索算法的原因,蒙特卡罗树搜索算法实际就是通过概率采样的方式来降低搜索计算量。 

2.人类下棋的思考过程实际可以简化为输入当前的棋局信息,输出可以落子的位置和对应赢率的系统,AlphaGoZero就是采用这样一个简洁系统。人下棋其实就是思考这样一个简单的函数,输入是当前局面信息,输出是有哪些位置是可以落子,分别赢率有多大,再从中选择最大赢率的落子。

此前版本的AlphaGo是将这两个判断分别用两个深度神经网络系统来实现:

1决定落子策略的策略网络(通过人类棋谱数据训练);

2评估每一步赢率的价值网络(通过自我对弈的棋局训练)。

在AlphaGo正式下围棋的时候这两个判断系统与蒙特卡罗树搜索算法结合,从而大幅降低搜索的空间,实现有限计算量下逼近最优解。 

3.AlphaGoZero将策略网络和价值网络两个神经网络合二为一,用一个简洁的神经网络来实现人类下棋的思考函数,通过自我对弈数据不断迭代训练来使函数逼近最优解。这个两个神经网络相当于共用了之前大部分的特征提取层节省训练时间,更重要的是这种统一的神经网络更类似于人类的思考过程,或能适应更多种不同情况。这也使得直接自我对弈的结果来实现端到端神经网络训练成为可能。 

4.AlphaGoZero并非不需要训练数据,而是因为训练数据样本可以根据围棋规则自行计算得到,所以才能完全摆脱人类知识,不停自我迭代训练。神经网络训练的输入数据就是自我对弈的棋局,标注的答案就是自我对弈获胜者的赢率和结合蒙特卡洛树搜索得到的落子概率分布。 

5.为什么AlphaGo训练时间减少效率提升?两方面原因:第一,两个神经网络相当于共用了之前大部分的特征提取层节省训练时间,此外神经网络设计方面也做了其他改进;第二,自我对弈获得的训练数据质量在不断提升。自我对弈的对手在不断进步,其对弈的数据质量必然随着对手水平指数级上升,如果使用人类数据训练,对手水平永远在3000多分以下参差不齐,而自我对弈不断迭代更强的对手训练,其对弈数据质量很快就稳定保持在3000分以上而且还在不断提升。 

6.AlphaGoZero的最大的优势是摆脱了人类经验数据的束缚。AlphaGo的自我对弈棋局不会受到人类经验的限制,而此前版本AlphaGo的走子策略网络用人类经验数据训练的,所以很大程度上会在人类经验的样本空间内落子,AlphaGoZero突破了这一局限,这也是为什么在AlphaGoZero的中局搜索空间很大时,会有很多人看不懂的“诡异”走法,因为这已经脱离了人类的经验范围,而有时候这反而是最佳走法。

 

AlphaGoZero的横空出世有什么意义?

 

1.对于搜索空间很大,而输出结果不依赖人的感知判断、由客观规则决定的问题,将大大减少训练数据的依赖。实际上在2014年谷歌收购DeepMind前,Deepmind就开发出不需要人类数据训练,自行学会玩街机游戏的人工智能系统震惊于世界,其基本原理其实与如今的AlphaGoZero如出一辙。我们可以看到Deepmind一直以来参与的项目类型都是胜负结果可根据游戏规则计算机自行评估的博弈游戏,无论是街机游戏、围棋还是星际争霸。这种问题的特点在于训练数据可以由计算机根据规则自行判断的游戏结果来获得,而不需要人工标注。AlphaGoZero的成功证明了这一思路是可行的,也有望拓展到其他类似领域。但对于图像、语音识别这类最终结果依赖人类的感知的问题,还是无法代替人类标注的训练数据。

2.有望突破人类经验的局限性,在新材料、新药开发等科研创新领域取得前所未有的突破。Deepmind在论文中也提到其研究成果可能会应用到新材料开发、蛋白质折叠等领域,这些问题有共同特点:以新材料开发、新药物合成等科研领域为例,其符合搜索空间大,结果由客观规则决定的特点,过去的开发可能受到已有的人类经验束缚,如果引入AlphaGoZero,可能会产生意想不到的重大突破。 

3.告诉我们一个道理:有时候,格局比勤奋更重要。此前版本的AlphaGo无论是训练计算资源还是时间都大大超过AlphaGoZero,可以说远远比AlphaGoZero更“勤奋”,但训练数据受到人类经验的束缚,只能在有限的样本空间里做“井底之蛙”,因而在格局开阔的AlphaGoZero面前不堪一击。这告诉我们有的时候,格局比勤奋重要得多。

 

作者:安信证券



长江证券财富管理:长江证券高端客户交流互动平台!
 本栏目由长江证券私人客户部·资讯研发团队提供!

免责声明:本栏目信息均来源于公开资料,本公司对这些信息的准确性和完整性不作任何保证,也不保证所包含的信息和建议不会发生任何变更。栏目中的信息或意见并不构成所述证券的买卖出价或征价,投资者据此做出的任何投资决策与本公司和作者无关。

本公司及作者在自身所知情的范围内,与本报告中所评价或推荐的证券没有利害关系。本公司及其所属关联机构可能会持有报告中提到的公司所发行的证券头寸并进行交易,也可能为这些公司提供或者争取提供投资银行、财务顾问或者金融产品等相关服务。