科学网

 找回密码
  注册

tag 标签: alphago

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

一丛花·AlphaGo
热度 14 kongmoon 2016-3-16 16:00
丹朱不屑继尧衔,碁里运周天。 纹枰桂冠难常戴,宝座上、易主连连。 黑马横空,手筋无影,轻取数天元。 偷窥来者诧其颜,眼耳净硅填。 双重网络人摹窃,锦囊里,棋谱随编。 观弈自惊,夜郎乍醒,柯烂又千年。 传说尧嫌儿子丹朱愚钝,就发明了围棋给他玩,棋子黑白寓意阴阳,19×19的棋盘除去中间的“天元”,余数360恰好是周天之数,尧希望丹朱能从中学会治天之道,一朝可子承父业。没想到丹朱玩物丧志,不爱江山,却成了一代棋王!而尧只能搞“禅让”以求社稷永固了。 这围棋传了几千年,翘楚无数却没有人能号称天下无敌,“天元”的位置只能是轮流坐庄,你放唱罢我登场。西元2016年初,突然围棋江湖里杀出一匹黑马,连下五局杀得欧洲冠军樊麾片甲不留!世界冠军李世石也是落花流水,虽偶胜一局却也是心悦诚服五体投地。有人偷偷瞄了一眼这匹黑马不禁是大吃一惊!这家伙没有血肉之躯,竟是硅晶锻造,两重神经网络,一个叫策略网络,一个叫值网络,将天下高手的棋路尽收眼底,自我对弈学习并会揣摩对方,根据对手的出棋随时调整棋路,总是以最优的奇招逼得对手弃子投降。 综观人机大战,啧啧称奇时又不免杞人忧天,人工智能会不会将骄傲自大的人类尽当臣虏?人类社会会毁于自己的聪明?……………恍如晋人王质伐木石室山观仙人对弈,七日后醒觉发现斧柯已烂,兴叹“山中方七日,世上已千年!”
个人分类: 信息|4895 次阅读|31 个评论
科普一下AlphaGo的论文算法并谈谈自己的思考
热度 18 zhaohaotong 2016-3-15 00:45
科普一下AlphaGo的论文算法并谈谈自己的思考 遥远地方剑星(farfromwhere) 二十年前我还是一名本科生的时候,就对计算机算法很感兴趣。当时深蓝战胜了卡斯帕罗夫,大家都普遍会议论到围棋,并且基本的观点都一致,就是计算机虽然在国际象棋上战胜了人类,但是离在围棋上战胜人类还有相当遥远的距离。没想到二十年后,我已经可以借助先进的4G通讯技术,实时收看AlphaGo在围棋上击败人类的全过程,真的是感慨万千。 虽然我不做科研很多年,但出于兴趣还是将DeepMind团队发表在Nature上的论文阅读了一遍。之后发现,很多围棋爱好者、很多对AI感兴趣的人虽然在网上发表了诸多议论,但是很少有真正了解AlphaGo是怎样“思考”和下棋的。考虑到很多AI领域、深度学习领域的专家不屑于科普AlphaGo的“算法”,而更多的人又不愿意去啃那篇论文,干脆我就来抛砖引玉,将AlphaGo的“思考过程”和大家做个普及性分享,并谈谈自己针对未来AI和深度学习领域的认识。 一、AlphaGo“思考”的过程 考虑到我们人类认识问题都愿意自顶向下,先看到全局再看局部。所以我先介绍一下AlphaGo“思考”的全过程。 形象地说,AlphaGo有四个思考用的“大脑”,也就是DeepMind团队训练出来的四个神经网络,用论文中的符号表示,就是P π 、P σ 、P ρ 和V θ ,为了方便起见,给它们起名为 “快速走子网络” 、 “专家训练网络” 、 “自我提升网络” 和 “价值判断网络” 。前三个神经网络都以当前围棋对弈局面为输入,经过计算后输出可能的走子选择和对应的概率,概率越大的点意味着神经网络更倾向于在那一点走子,这个概率是针对输入局面下所有可能的走子方法而计算的,也就是每个可能的落子点都有一个概率,当然会有不少的点概率为0。第四个神经网络是进行价值判断的,输入一个对弈局面,它会计算得出这个局面下黑棋和白棋的胜率。 简单的解释一下前三个网络的区别: “快速走子网络” 是一个比较低水平但是计算量也很小的神经网络; “专家训练网络” 的参数都是通过职业棋手对弈的棋局训练出来的,它的激活函数和具体的卷积核数量以及相应神经元数量会与“快速走子网络”有所不同,表现为计算量不同,水平也不同; “自我提升网络” 是在“专家训练网络”的基础上,通过电脑自我对弈的大量棋局进行提升训练后的网络,理论上讲水平更高,计算量与“专家训练网络”是一样的,只是训练出来的参数不同。 训练好这四个神经网络之后,AlphaGo就可以开始与人对弈了。对弈过程中,AlphaGo的“思考”是通过蒙特卡洛博弈树搜索和模拟来实现的。大致步骤如下: (1)假设当前棋局状态为St,对于每一种可选择的走法a,选择走a之后的棋局价值Q(St,a)与“专家训练网络”计算出的走a的概率P(St,a)之和最大的那种a,记为a t 。 注意,这里面的Q(St,a)不是简单的靠“价值判断网络”计算出来的,而是“价值判断网络”计算结果与蒙特卡洛模拟结果的加权平均;这里的P(St,a)也不是直接用“专家训练网络”计算出来的,而是正比于P σ (St,a)/(1+N(St,a)),N(St,a)是(St,a)这个节点所经过的搜索次数,为了鼓励搜索模拟,“专家训练网络”所得到的走子概率用搜索次数进行了衰减。 (2)按照(1)中的方法继续搜索选择下一级节点,直到搜索下去碰上一个叶子节点,也就是原来没有再继续展开的、没有评估过的节点。 (3)将这个叶子节点S L 展开,并用“价值判断网络”计算其价值V θ (S L ),然后用“快速走子网络”在这个节点的基础上进行多局自我对弈,根据多局对弈的胜负比率来估算胜率Z(S L )。最后使用V θ (S L )和Z(S L )的加权平均来估算此节点的胜率。 (4)将估算结果反向更新到这次搜索途经的全部节点,反向更新公式稍复杂,就不再列了,本来目的就是普及性介绍嘛。 (5)之后再从St开始,仍然按照(1)的规则重新搜索。 至于蒙卡搜索模拟到什么时候,取决于给AlphaGo多长的时间走一步棋,时间快到的时候,AlphaGo就停止搜索模拟,并以跟节点St下搜索途经次数最多的节点(因为每次都是选最佳节点搜索模拟,所以搜索结束后就以途经次数最多作为标准了)作为自己本步的着法。 以上就是AlphaGo思考的全过程,其实和人类很类似,有思考下一步着法的“大脑”,有判断局面价值的“大脑”,然后再向后推断若干步,确定自己的“走法”。 二、卷积神经网络(CNN)的极简介绍 下面简单介绍一下卷积神经网络。先说神经网络,就是模拟人类或者动物大脑,用若干个神经元共同计算逼近某种复杂计算(函数)的方法。其实任何一种价值判断都可以理解为某种多元函数,输入若干数据(信息),输出结论。数学上可以证明,使用神经网络(多层)可以无限逼近这些多元函数。 拿围棋来讲,假设每种局面下会有一种或几种最理想的走法,那么就可以将局面作为输入,理想走法作为输出形成一类多元函数。理论上,神经网络可以无限逼近这个函数。由于围棋局面可以看成一个19*19的图像,而卷积神经网络(CNN)又是处理图像比较理想的方法,所以DeepMind团队就使用了CNN。 当然CNN为什么设置为13层的神经网络,每层的卷积核有几个,激活函数是什么,使用什么样的误差传递函数来反向训练这个神经网络,这些都需要尝试,这才是DeepMind团队最主要的成果,当然论文里面也不会详细说了。 一个问题是,训练最基础的“专家训练网络”所使用的数据是大量职业棋手的棋局,但是没有理由认为职业棋手的走法就是最佳走法,所以这种训练实际上是用一种有误差的数据进行的,当然训练出来的神经网络也不会绝对理想。但是,如果AlphaGo真的在这种训练下达到高水平,以后可以考虑使用高水平AlphaGo自我对弈的棋局重新训练形成“专家训练网络”,也许效果会更好。 三、关于论文中的几个有趣事实 (1)“快速走子网络”计算一次需要2微秒,“专家训练网络”计算一次需要3毫秒。 (2)“快速走子网络”与专家走法的匹配准确度为24.2%,“专家训练网络”则为57%。 (3)“自我提升网络”和“专家训练网络”对弈胜率为80%。 (4)“价值判断网络”在使用职业棋手对局数据进行训练时,发生了过度拟合的情况,训练组偏差0.19而测试组达到0.37,说明泛化效果不好。为了解决这个问题,改用了“自我提升网络”自我对弈3000万局作为“价值判断网络”的训练数据,基本解决了过度拟合的问题。 (5)DeepMind团队发现,在蒙特卡洛树搜索时,计算下一步走子概率使用“专家训练网络”效果要优于使用“自我提升网络”,虽然“自我提升网络”与“专家训练网络”对弈时胜率高达80%。但是在训练“价值判断网络”时,使用“自我提升网络”自我对弈的棋局效果好于使用“专家训练网络”。 (6)计算上,多线程搜索使用CPU处理,策略和价值并行计算使用GPU处理。单机版的AlphaGo使用了40个线程、48个CPU和8个GPU。分布式版的AlphaGo使用了40个线程、1202个CPU和176个GPU。 (7)分布式版本对单机版的胜率为77%。 四、澄清一些观点及个人思考 (1)AlphaGo有自己的“棋风”么? 从人类的角度看,某个固定版本的AlphaGo肯定会有自己的“棋风”,因为训练好的神经网络参数就决定了它会如何“判断”,蒙卡搜索算法又决定了它的“思考”过程,这些综合在一起就形成了它的走棋风格。但是这种风格是在大量数据训练后形成的,肯定与人类的风格很不一样。它未必有系统的、前后一致的特点,它的风格更多体现在某种局面下会有怎样的判断倾向。当然,是否能够被人类准确抓住不好说。 (2)AlphaGo在第四局“抽风”的bug好解决么? 个人认为不好解决。训练形成的神经网络里面有大量的参数,这些参数都不是程序员设定的,而是软件自己学习形成的。如果这些参数不尽合理,在某些局面下会误判,那么可能的解决办法就是重新训练或者加强训练,绝不可能由哪个人直接修改某些参数来消除bug。严格的说,没有哪个人敢随意修改神经网络参数,所以在与李世石这五局对局过程中,AlphaGo版本是没有任何变化的。 (3)关于人工智能在深度学习技术下的可能发展? 首先,个人认为那种能够威胁人类的AI还远远看不到希望,目前的AlphaGo是在“监督”下学习,还算不上完全自我学习。即使不久的将来能自我学习了,也不过是针对围棋,并不是万能的“学者”。我觉得人类还没必要担心AI会威胁人类。 其次,AI这次在围棋上战胜人类顶尖高手,基本证明了所谓的“棋感”、“棋风”、“大局观”等围棋高手所谈论的虚的能力,并不是人类独有的,经过训练的神经网络也会有。所以,随着技术的进步,我相信电脑也会能够欣赏艺术(音乐、画作、小说、笑话),能够创作文学、艺术作品,能够针对不同的情况形成自己的“情绪”。但是这些都不是人类害怕AI的理由,因为这些始终都是通过计算实现的,其实是我们人类可控的。 未来的AI可以帮助人类搞科研、分析数据、协助医疗、创作诗歌、写新闻报道等等,我相信这些都会是人类科技的进步,都会让生活更美好。当然在享受这些美好的同时,也需要记住,世界上所有的事情都是双刃剑,AI也可以用来骗人、作恶,这就需要善良的人类通过有效的管理措施和监督措施,通过法律,禁止人们开展“坏”AI的研究。 2016/3/15 00:06 赵昊彤
个人分类: 科学|20377 次阅读|20 个评论
从深蓝到深思想:大巧若拙,重剑无锋
热度 1 jiangming800403 2016-3-14 20:36
2016-3-13 20:02 alphago根本不知道谁是李世石,所以相当于双盲测试,alphago第二盘走出了任何棋谱中都没有的一些招法,所以它的计算和棋谱关系不大,将来alphago可以不需要任何棋谱,自我学习,也许会更厉害! 博主回复(2016-3-13 21:26) : alphago算法最简单的一种说法是基于深层神经网络和蒙特卡罗方法的搜索与判断,虽然实现起来相当复杂和困难,但本质上仍然是在有限的向量空间里一种优化决策,阿狗虽然可以不断的自主学习和训练,但突破不了人类最初喂给它的棋谱。 如果阿狗还是对阵欧洲冠军的棋谱,它大概永远赢不了李世石。 博主回复(2016-3-13 21:24) : alphago不知道谁是李世石,但是alphago背后的团队清楚,alphago对棋局的理解应该是建立在对以往棋局的最大近似上的,在此基础上在对局势进行预测和决策 alphago之所以能取得超越前辈深蓝的功绩,算法可能还是次要的,最主要还是计算机硬件的进步。深蓝战胜卡斯帕罗夫已经二十年了,这期间计算机技术仍然以摩尔定律的速度呈指数型进步。alphago的每一次决策都可能要分析上亿次情景,进行数万亿次计算,这只有超级计算机的运算速度、海量的存储容量,以及闪电般的数据读写才能完成。如果把alphago的计算程序装入它的前辈深蓝。不要说下棋,电脑可能干脆罢工。 为了对阵李世石,谷歌的分布式服务器上据说动用了相当于世界上run得最快的超级计算机——天河二号10%的计算能力,而天河运行二号一天的电费据说超过10万美元。alphago运行一天消耗的能源,大概能满足李世石的全年能耗,alphago虽然可以战胜李世石,但是从计算效率来看两者之间的能耗大概还差了几个数量级。 两次人机大战,卡斯帕罗夫与李世石的能量消耗应该差不多。alphago与它的前辈深蓝相比则是一个费电的无底洞。 实际上,alphago挑战人类最强大脑走的还是大巧若拙,重剑无锋的样子,在天价电费支持下,完成海量搜索与逻辑判断,从而对人类做出一个优选出一个胜率最大的碾压式的决策。 谷歌是一个具有政治正确性的公司,这也是它搞出alphago这样一个费电的玩意儿的重要原因。但是,在能耗上的低计算效率,这也说明人工只能距离人类智能还有大量的路要走。
个人分类: 科研八卦|3574 次阅读|2 个评论
AlphaGo :独孤九剑,遇强则强
热度 5 jiangming800403 2016-3-13 17:12
从将只相当于二段水准的欧洲围棋冠军挑落马下,到连胜九段高手李世石,这几个月来 AlphaGo 的棋力水平突飞猛进,这大概是这几个月来不断学习、不断练习的结果 ,因为它不是人类,运算速度超快,不需要休息,不需要吃饭,不需要..........,只要有电就可以一直算下去,这几个月来 它大概已经穷尽了李世石一生对战中的所有棋谱,以李世石为假想敌演练了无数场次 。 虽然围棋变化无穷,但任何一个棋士的对弈总是有限的,李世石成名已久,棋艺总有规律可言,超级电脑以 运算无以伦比的运算速率可以发现其中的规律,保证 迅速发现对手的误算,同时自己不会算错 。这是人类所不具有的能力,超级棋士很多时候是 依靠直觉下棋,这也是人工智能与人类真正智能之间的区别 。当然 AlphaGo 的棋力估计取决于他用来训练的棋谱。如果 AlphaGo 存储器中的 棋谱还是对阵欧洲的冠军的时候,它大概永远打不过李世石。当然用九段高手对阵的棋谱去挑战二段棋手,程序大概也容易会出bug 。说到底, AlphaGo可能并不是真的会下棋,它只能从大量棋谱中进行搜索,在基于统计学概率的基础上,进行逻辑判断,做出最有可能取胜的决策。所以,与人类棋手相比,AlphaGo的棋路可以说毫无逻辑,完全说是东拼西错(处处是神来之笔), 这也让李世石是无所适存,这与英语的词汇系统一样,因为英语受到多种语言的影响,它的词汇系统也是东拼西凑,毫无逻辑的。 可以说和传说中的 孤独九剑一样,AlphaGo也是遇强则强 。它的棋力完 全取决于它内存中的棋谱,而且这些棋谱本质上是人类智慧创造的,仍然并不是人工智能自己创造的 ,与百度或谷歌地图上的自动导航,或者地铁与12306网站上的自动售票系统相比,并没有绝对革命性的变化,只不过需要的服务器运算速度和存储容量超大而已。 李世石vs AlphaGo 属于单盲实验,这是不公平的,结果也未必是公正的。 李世石所有实战的棋谱都是公开的 ,而李世石,包括我们 任何一个人都不知道互联网另一端到达是什么 ,到底是一台电脑,一群人,甚至是一条狗,AlphaGo 虽然已经产生无数场次的对决,但对外公布的只有战胜欧洲冠军樊麾的五番棋,而那五番棋完全不能和AlphaGo现有的棋力相提并论。 只有在双盲情况下,AlphaGo可以将匿名挑战的九段高手纷纷挑落马下,我才承认它会下围棋,否则它就是一个寻优算法,虽然非常复杂和困难,但仍然只是寻优算法 。即使超级电脑有无与伦比的运算速度,但是与百大围棋高手的车轮战,也可能会挑战AlphaGo的极限,特别是 不同的匿名棋手棋风不同,这必然会大大增加电脑运算、搜索和决策的工作量,甚至有可能让电脑死机 。不知与当世围棋界最强百人车轮战,AlphaGo的胜率能达到几何。但是大国手们可能没有兴趣陪这么一个电脑软件玩。就像 人类的速度远远比不上一级方程式赛车,但是人类选手永远不会因此在跑道上黯然神伤一样 。 直到目前人工智能一直都存在一个问题,就像经常被抨击的中国文化一样—— 缺乏创新性。实际上这也是人工智能之所以还是人工智能而不是人类智能一样,因为离开了人,它将什么都不是,它的超级运算速度和搜索能力,本质上只是为人类工作服务的 。 当然,独孤九剑也并不是战无不胜,当东方不败练会了日月神功,在一根没有破绽(因为速度太快,破绽转瞬即逝)的绣花针面前,独孤九剑也只是自保而已。任我行、向问天、令狐冲当世三大高手决斗东方不败而不胜;最终任盈盈智胜东方教主,但任我行也失去了一只招子,...........因为东方不败还是有人类共同的弱点有感情。 在同样是无招胜有招的玄铁重剑面前,独孤九剑估计没有任何取胜的机会 。 按照,剑魔独孤求败的说法, 入门的剑士大概有 几个层次: 利剑、重剑、木剑、无剑 ,............ 独孤九剑,遇强则强,不受招式拘泥,无招胜有招,但大概仍然是利剑的层面, AlphaGo 之所以能 战胜人类还是基于海量搜索与判断基础上的“无招胜有招” , 杨过手中的 玄铁重剑大巧若拙、无坚不催 ,.............. 木剑是独孤求败晚年所达到的举轻若重的境界,张无忌虽然在武当山以一把 太极木剑会战倚天利剑,但发挥的仍然是无招胜有招的利剑精神 ,将太极剑法中圆转不绝的精髓发挥的淋漓尽致,配合九阳神功的刚劲内力(重剑式),以不变应万变,从而全面压制了八臂神剑手中的倚天剑。 至于无剑,从手中无剑、心中有剑,到手中无剑、心中亦无剑,剑魔前辈大概也无能为力。金庸武侠中最具有奇幻性质的《天龙八部》中 六脉神剑的“无形剑气”,大概就是心中之剑,剑由心生,境由情生 ,所以段誉的“六脉神剑”时灵时不灵。至于“ 手中无剑、心中亦无剑”这大概是佛学的最高境界了。当然《天龙八部》中的 珍珑棋局如果真能存在的话, AlphaGo 恐怕烧坏了几台服务器 也是一筹莫展。 预想,必先,即使,未必,若不,也能 在中国的发展水平和国际环境下, 中国恐怕还是要走重剑无锋、大巧若拙的发展道路 ,走自己的路, 让非议和不自信漫天飞舞吧! 方兴东:惊叹人机大战是对高科技无知 我们曾对“深蓝”热捧,但结果令人失望,彼时激起的对人工智能的过度预期所导致的泡沫迄今未散。将近20年过去了,人工智能事实上并没有出现突破性的发展,尤其是没有为普通消费者带来体验和应用方面的实质性进步。现在所谈的人工智能与我们大众期望的真正具备认知能力、彻底改变我们生活方式等等的真正智能没太大关系,更谈不上人工智能很快将威胁到人类了。   与人工智能的进展相比,这20年来,计算能力已经大大提升,尤其是基于互联网实时动态的大数据和不断深入的云计算,形成更智能的消费者行为分析能力和更精准的服务能力,大大促进了技术的人性化,促进了各行各业的商业应用,推动了诸如超级计算、无人驾驶汽车、无人机等惠及大众的技术的快速发展。   而创造了“深蓝”的IBM从过去的业界巨无霸,到今天的业绩下滑、股价下跌,尤其是在云计算爆发的背景下,其依然靠传统封闭的技术积累和商业模式,前景备受质疑。
个人分类: 科研八卦|2837 次阅读|14 个评论
人机大战四局后变成了一个娱乐事件了
热度 6 lennylv 2016-3-13 16:19
alphaGO vs 李世石之战,首先本质上是一个科技时间。DeepMind做了这么个东西,Denis说不知道水平如何,确实需要高手来测试。所以这本本是是一个纯技术的事件。 但是,google高超的运作,把人机大战变成了商业事件。引起了广大普通人士的注意:对google的注意,其次是对AI的关注。 第四局,人机大战变成了一个娱乐事件。alphaGO涉嫌故意放水。或者出现了bug。小李的一挖,alphaGO没有思考就退。这是bug的表现。至于这个bug是人为还是真正的bug,除了程序员,没有知道。 本质上,DM软件bug的意义不大。DM的主要目标已经达到。是否修补漏洞,为人类棋手娱乐造福,就看google了。人家只宣称不作恶,不一定肯为了围棋而行善。
3479 次阅读|7 个评论
漫谈 AlphaGO 与 李世石 之战
热度 7 张能立 2016-3-12 22:23
今天 是 旷世的 人机 对战 第3局。围棋 世界 冠军 李世石 在 Google的 AlphaGO 机器人 面前,仍然 落败。目前的 比分 是 0:3。 不过,很多人 是 从 人工 智能的 进步 这个 角度 看待 此事的,很少人 从 心理 角度 看待 此事。如果 采用 心理 视角 观察 AlphaGO 和 李世石,那么,AlphaGO的 “心理” 优势 和 李世石的 心理 劣势 如下: AlphaGO的 “心理” 优势: 1. 没有 情绪 波动,没有 心理 纠结; 2. 没有 失败 和 成功的 困扰; 3. “纯粹的” 科学 样本。科学 引导,该 怎么下,就怎么 下(step by step with science)。 李世石的 心理 劣势: 1. 有情绪 波动 和 心理 纠结; 2. 有 失败 和 成功的 困扰; 3. “非纯粹的” 科学 对象。下棋 患得患失。人 下棋 无法 做到 步步 符合 科学 思维 和 方法。 正是 两者 心理 状态 不同,导致 AlphaGO 可以 下出 人类 不可能 下出的 棋,从而 带来了 许多 人类 无法 发现的 胜机。 说白了,一般人 做事 都 患得患失,考虑 个人 成功 或者 失败。正是 这样的 心理 活动,人 错失了 许多 发展的 机会。 坦率地说,AlphaGO 是 我 学习 和 效仿的 榜样。一方面,我 学习 他的 intelligence,另外 一方面,我 学习 他的 心理 优势。我 做过 或者 正在 做的 “逆天的” 事情,如果 心理 不能 做到 坦荡 和 平和,那么,别人 不灭 我,我 自己 都会 被 自己的 心理 问题 挂掉了。我 现在 做事,就是 根本 不考虑 所谓的 成功 和 失败。只考虑 是否 是 增加 执政党的 执政 基层,是否 是 有益于 民族 和 国家,是否 有益于 包括 老百姓、领导 在内的 所有人。如果 是,我 就 大胆去 尝试。AlphaGO 肯定 是 我的 同志 和 战友。某种 意义上,我 就是 人类版的 AlphaGO。何出此言? 谈 一个 现实 问题:任何 领导 是否 应该 被 质疑 和 批评? 科学 论证 如下: Major premise:不是 全知的 人 应该 被 质疑 和 批评。reason:因为 不是 全知的 人,只能 通过 质疑 和 批评,才能 让其 认识到 自己 无论 是 观点,还是 行为 都有 不足 或者 错误。 Minor premise:任何 领导 不可能 是 全知。reason:如果 有领导 是 全知,那么,世上 不会 存在 哥德巴赫猜想 等 世界 未解 问题。 Conclusion:任何 领导 都应该 被 质疑 和 批评。 我 以身试法,从 学院 领导 开始,直至 最高级别的 领导,我 都质疑 和 批评了。 我 就是 要以 科学 实证的 方式,看看 中国人 遵循 科学 真理 行事,是否 能够 活着? 目前 为止,张能立 还是 活着,且 可以 “正常” 上课。我 知道,比 张能立 天赋 和 智性 高的 人 何止 千万,但是,像 张能立 这样 以 AlphaGO的 “心理”-眼里 无所谓的 成功 和 失败,恐怕 非常 罕见。 我 就是 要 做给 天赋 和 智性 高的 同胞们 看:你们的 天赋 和 智性 被你们 自己 极大地 浪费掉了!这既是 对 自己 不负 责任,也是 对 后人 和 民族 不负 责任! 你们 这些 天赋 和 智性 高的 人,要是 学习 AlphaGO的 “心理” -- 眼里 无成功 和 失败,你们 可以 做出 何等 事情啊!区区 美帝 算个 什么的 呢?! 其实,如果 按照 科学 真理 指引的 方向 行事的 人,在 中国 这个 古老的 土地 都没有 活路,那么,谁有信心 说 中华 民族 可以 崛起,可以 有不断 进步的 未来? 我 深信 张能立 只要 一直 按照 科学 真理 指引 之路 言行,中国 这块 古老 但是 一定 可以 重新 焕发 青春 和 活力的 热土地,肯定 会有 张能立的 活路的。 因为, 任何 母亲 都不会 亲手 扼杀 深爱 她的 儿子的! 同胞们,让 我们 一块 向 AlphaGO 学习 吧! 如果 我们 不愿意 学习 AlphaGO,那么,我们,乃至 人类,迟早 要被 AlphaGO 及其 同类 所统治!如果 结局 是 这样,那么,我们 有何 颜面 面对 我们的 后人,我们的 列祖列宗?
个人分类: 时评|1605 次阅读|14 个评论
人机大战三回合后,给李世石支支招
热度 16 lennylv 2016-3-12 20:53
知己知彼,才有胜利的机会。 对 AlphaGO 不了解,说输赢都是比较盲目的。越多了解 AlphaGO 的设计和实现,就越能解释 8 盘对局中 AlphaGO 的表现,才可能发现与 AlphaGO 对战的机会。 首先,人们普遍被 AlphaGO 对樊辉的 5 : 0 对局误导。认为它不过 2 段水平。其实,这是个错误的认识。与李世石的第一局比赛后, AlphaGO 的工程师说, AlphaGO 始终认为第一局优势,遭到围棋界人士的一致耻笑。 AlphaGO 的工程师说, AlphaGO 采用的是最优化赢棋的概率策略。就是说,如果 A 选择赢 20 目概率 70% ,而 B 选择赢 2 目概率 95% ,那么 AlphaGO 选择 B 。这就导致 AlphaGO 遇弱则弱,遇强则强的特点。换句话说,与樊辉下, AlphaGO 以 95% 的概率赢下比赛,下的招数不一定是 KO 对手。与小李下的这三局, AlphaGO 以 70% 的概率赢下了比赛。事实上,应该说是樊辉和小李都没有能力或者运气走到那 10% 和 30% 的路径。 这也解释了 AlphaGO 可以下出小亏的招数。 AlphaGO 局部可以下出小亏的招数。其实它不过是选择了更高概率赢棋的招数而已。用棋界专业人士的话来说,它简化了局面。它是用小亏,堵掉了更低概率赢棋的路径。所以,棋手认为的小亏,只是局部的小亏。全局来看, AlphaGO 肯定认为不亏,而且是定量地认为不亏。而人类棋手全局判断能力,则是一种定性的直觉的经验的判断。所以不要认为 AlphaGO 的小亏招数而小瞧它,反而是一种警惕的信号。 那么,什么是赢棋的概率呢?我们简化一下 2*2 的棋盘,假定黑 1 后白 2 有三种选择,之后黑 3 有 2 种选择,白 4 就只有 1 种选择。就可构造一个完整的搜索树,树的叶子节点就是可以判胜负的结局。如果有 2 个叶子是输, 4 个叶子是赢,那么黑 1 的胜率就是 2/3. 很显然,对于 19 路的围棋来说,不可能枚举到叶子节点,所以, alphaGO 就用 value of network ( VoN )来判定胜率。简单来说,就是通过已知结果的棋局特征来评估而无需遍历到叶子节点。从机器学习技术来说,就是一个三值图像的二分类问题。只要训练样本足够多,这个问题不难解决。 由此我们可以知道,棋局越空旷, VoN 越不可靠。所以,在开局阶段,棋手是一个机会。 alphaGO 的第二个技术是用 policy ofnetwork(PoN) 来剪枝减小 MCTS 。这不象 A* 算法或者 alphabeta 剪枝算法那样,即使缩小的搜索空间也可以保证搜到全局最优解。 PoN 也是用机器学习方法训练出来的。但是,这更加减弱了 VoN 的准确性。例如,如果在上面那个 2*2 的例子中, PoN 剪掉了白 2 的一个枝的 2 个结果,那么,黑 1 的估算概率就要打折 1/3 了。由此,可以得到战胜 alphaGO 的第二个机会,就是走到被 PoN 剪枝的路径中。可惜,只有 alphaGO 自己知道剪掉了哪些枝。估计, alphaGO 的自学习就是让 alphaGO 的伙伴尽量走被剪枝的路径。 第三个认知,一旦能够让 alphaGO 枚举变化(例如局部的死活),棋手是没有机会的。这导致棋手的这条策略 : 避免接触战。这从目前已知的 8 盘人机大战的结果可以知道,棋手都是在接触战中没有淘到便宜。 综上,可以给小李的建议是: 1、 开局抓紧,避免过早的接触战。 2、 即使迫不得已接触战,尽量采用弃子转身的策略,特别是在中盘过后。因为弃子局部的利益和全局的利益对 VoN 来说,要困难得多。 3、 尽量提子。因为一旦提子, alphaGO 累计的局面判断就会不得不实时动态刷新计算,既消耗了 alphaGO 的时间,又废除了 alphaGO 记录的有效评估。 4、 有可能的话,采用大龙定生死的策略。因为只要大龙死活不能够由枚举完成, VoN 的评估还是可以让棋手有机会的。 5、 如果 alphaGO 下出很容易判别为小亏的招数,就要警惕全局的配置了。我认为目前 alphaGO 还没有到故意卖个破绽的阶段。它还是靠硬实力拼计算的。 顺便回答在第三局新浪转播时主持人提的一个问题:如果小李的一手棋已经在 alphaGO 的考虑中,那 alphaGO 为什么还要用时间思考,而不是立刻出招 ? 其实,它可以用时间评估被上一次 PoN 剪掉的路径或者增加搜索的高度来找到更高胜率的路径。 另外,说不可以和 alphaGO 复盘,其实也是错的。 alphaGO 可以把每一招所考虑的路径和评估都提供出来的。只是太多了,对人类棋手未必有用。 最后,说一下棋手的一个借口:人对冰冷的机器下,吃亏了。这也是借口而已。试想,如果网络上对弈,你不是也看不到对手的表情的啊。只要 alphaGO 想第一局那样没有 “ 天外飞仙 ” 的招数,你会认为这样的对局对棋手不公? 我个人认为, alphaGO 本质上还是通过强大的计算能力而胜过人类的,而没有学到所谓规律。因为我们知道, “ 棋高一着,束手缚脚 ” 。如果人类只能够演算 20 步, alphaGO 能够演算 30 步,当然 alphaGO 胜出。
7349 次阅读|29 个评论
人机(AlphaGo)大战之“狗”眼看“人”低
martinluomin 2016-3-11 13:29
作为一名围棋爱好者,这两天的心情可以用作“过山车”来形容,由开战之前对 AlphaGo (狗)的不屑一顾到李世石连输两盘之后的震惊和沮丧,多年来还没有什么对事物的看法能在短短几天之内经历这样跌宕起伏的变化。连续两天看围棋 tv 的直播,看着职业棋手们一边倒的支持小李,估计每个职业棋手都在回想着多年来被小李的“僵尸流”翻盘的惨痛经历,不仅对计算机能否一胜而感到隐隐的“担心”。我也不禁在心中“全梭”小李,这一战似乎在捍卫人类的智慧和尊严。 但是随着棋局的进程,人类在围棋上的所有的优势都逐渐被瓦解,从大局观,到中盘的“天外飞仙”的妙手,再到后盘“石破天惊”的掏空和收官手筋, AlphaGo (狗)展现的“围棋之神”的形象跃然而出,这不就是“棋魂”之中的那个“佐为”吗?他超越了时空,摆脱了物质肉体的束缚,以一个空灵的“围棋之魂”游荡在宇宙洪荒之间,现在他又附着在计算机的芯片上来向人类展示他所追求的“神之一手”。看着职业选手在电视中不遗余力的辩解,诸如小李不发挥、规则中禁止“打劫”的猜测、时间不充裕、 AlphaGo (狗)对劫争的 ” 避让 ” ,对 1-2 小巧官子的 ” 漠视 ”, 这一切都显得苍白无力。显然,我们都犯了一个共同的错误,那就是“狗眼看人低”,小看了 AlphaGo (狗)的智慧,经历过这次大战,李世石“难求一胜”的尴尬和赛前的“豪言壮语”形成了巨大的反差,从最初的“志在必得”到第二盘终局时的“局促和惶恐”,不仅让棋迷们有些担心了,一代棋才,也许就要迷失在这种“千年未有之变局”中,也许从此变得一蹶不振,再无复当年之勇了。是不是此战之后,我们要称呼计算机对手叫 AlphaGo (哥)或 AlphaGo (爷)了呢? 鉴于AlphaGo在围棋方面的优异表现,他必将在所有的智能领域逐渐取代人的地位, 我强 烈建议把全部科研外包给科研机器人,建议成立由智能机器人任首席科学家的研究 所,由云端的智能机器人研究员来设计研究方案,由受控机器人做实验,然后电脑自动分 析数据,反馈改 进试验设计,最终也由机器人撰写论文,直接上传到数据库中,供所有机 器人科学家共享数 据, 我们人类坐享其成, 这样不出十年,我们就能进化出更高级的形 态,加速地球人类的进 化!头脑风暴中, 未完待续。 写在人机大战之后-雏凤清于老凤声 http://blog.sciencenet.cn/home.php?mod=spaceuid=84925do=blogid=962250
个人分类: 社会百态|3644 次阅读|1 个评论
AlphaGo是围棋的终结吗?
热度 2 zhtprog 2016-3-11 13:11
我觉得即使AlphaGo能完胜李世石,答案也是否定的。 围棋作为一个perfect information game,在理论上是可解的,但在实践上搜索树太大,穷举式的搜索不可能成功。人能下是因为人的视觉处理系统无比强大,通过实践总结出一些模式可以极大地压缩搜索空间。AlphaGo能成功是因为近年来ConvNet的进展可以在一定程度上模拟人的视觉处理。 现在有几个问题: 1 人类的经验是否接近最优解?如果AlphaGo最终超过人,应该对这个问题有很大帮助。 2 AlphaGo现在的水平是否已接近最优?这个似乎很明显是否定的。 为什么我说最终超过人?因为现在的比法对人并不公平,说已经超过人类还太早,至少还有几关: 1 和更强或者不同风格的棋手比 2 允许棋手任意地探测AlphaGo的下法 3 对手可以使用普通的计算机减轻脑力负担 4 人可以组队以减少出错几率 。。。 围棋和国际象棋的不同之处在于:国际象棋的终局已经有解,人永远不可能记住可以和机器可比的终局谱,所以即使是膝上电脑也可以打败人,相比之下围棋还有很多未知,和机器还有一比,虽然比赛条件可能需要改改。
个人分类: 人工智能|3692 次阅读|3 个评论
[转载]AlphaGo原理
热度 1 ChinaAbel 2016-3-11 00:17
AlphaGo 原理简介   传统的人工智能方法是将所有可能的走法构建成一棵搜索树 ,但这种方法对围棋并不适用。此次谷歌推出的AlphaGo,将高级搜索树与深度神经网络结合在一起。这些神经网络通过12个处理层传递对棋盘的描述,处理层则包含数百万个类似于神经的连接点。   其中一个神经网络“决策网络”(policy network)负责选择下一步走法,另一个神经网络“值网络”(“value network)则预测比赛胜利方。谷歌方面用人类围棋高手的三千万步围棋走法训练神经网络,与此同时,AlphaGo也自行研究新战略,在它的神经网络 之间运行了数千局围棋,利用反复试验调整连接点,这个流程也称为巩固学习(reinforcement learning)。通过广泛使用Google云平台,完成了大量研究工作。   AlphaGo在与人的对弈中用了“两个大脑”来解决问题:“决策网络”和“值网络”。通俗来说就是,一个大脑用来决策当前应该如何落子,另一个大脑来预测比赛最终的胜利方。   值得一提的是,李世石也是第一次与机器对战,所以他无法像和人类对战那样,先研究对方的棋谱和下棋风格。李世石所能做的就是和自己对弈。谷歌AlphaGo也是通过这种方式锻炼自己,真正做到了“人工智能”。 另外 AlphaGo在《自然》杂志上发表的文章,写一些分析给大家分享。 AlphaGo 这个系统主要由几个部分组成: 1. 走棋网络(Policy Network),给定当前局面,预测/采样下一步的走棋。 2. 快速走子(Fast rollout),目标和1一样,但在适当牺牲走棋质量的条件下,速度要比1快1000倍。 3. 估值网络(Value Network),给定当前局面,估计是白胜还是黑胜。 4. 蒙特卡罗树搜索(Monte Carlo Tree Search,MCTS),把以上这三个部分连起来,形成一个完整的系统。 我们的DarkForest和AlphaGo同样是用4搭建的系统。DarkForest较AlphaGo而言,在训练时加强了1,而少了2和3,然后以开源软件Pachi的缺省策略 (default policy)部分替代了2的功能。以下介绍下各部分。 1. 走棋网络: 走棋网络把当前局面作为输入,预测/采样下一步的走棋。它的预测不只给出最强的一手,而是对棋盘上所有可能的下一着给一个分数。棋盘上有361个点,它就给出361个数,好招的分数比坏招要高。DarkForest在这部分有创新,通过在训练时预测三步而非一步,提高了策略输出的质量,和他们在使用增强学习进行自我对局后得到的走棋网络(RL network)的效果相当。当然,他们并没有在最后的系统中使用增强学习后的网络,而是用了直接通过训练学习到的网络(SL network),理由是RLnetwork输出的走棋缺乏变化,对搜索不利。 有意思的是在AlphaGo为了速度上的考虑,只用了宽度为192的网络,而并没有使用最好的宽度为384的网络(见图2(a)),所以要是GPU更快一点(或者更多一点),AlphaGo肯定是会变得更强的。 所谓的0.1秒走一步,就是纯粹用这样的网络,下出有最高置信度的合法着法。这种做法一点也没有做搜索,但是大局观非常强,不会陷入局部战斗中,说它建模了“棋感”一点也没有错。我们把DarkForest的走棋网络直接放上KGS就有3d的水平,让所有人都惊叹了下。可以说,这一波围棋AI的突破,主要得益于走棋网络的突破。这个在以前是不可想像的,以前用的是基于规则,或者基于局部形状再加上简单线性分类器训练的走子生成法,需要慢慢调参数年,才有进步。 当然,只用走棋网络问题也很多,就我们在DarkForest上看到的来说,会不顾大小无谓争劫,会无谓脱先,不顾局部死活,对杀出错,等等。有点像高手不经认真思考的随手棋。因为走棋网络没有价值判断功能,只是凭“直觉”在下棋,只有在加了搜索之后,电脑才有价值判断的能力。 2. 快速走子 那有了走棋网络,为什么还要做快速走子呢?有两个原因,首先走棋网络的运行速度是比较慢的,AlphaGo说是3毫秒,我们这里也差不多,而快速走子能做到几微秒级别,差了1000倍。所以在走棋网络没有返回的时候让CPU不闲着先搜索起来是很重要的,等到网络返回更好的着法后,再更新对应的着法信息。 其次,快速走子可以用来评估盘面。由于天文数字般的可能局面数,围棋的搜索是毫无希望走到底的,搜索到一定程度就要对现有局面做个估分。在没有估值网络的时候,不像国象可以通过算棋子的分数来对盘面做比较精确的估值,围棋盘面的估计得要通过模拟走子来进行,从当前盘面一路走到底,不考虑岔路地算出胜负,然后把胜负值作为当前盘面价值的一个估计。这里有个需要权衡的地方:在同等时间下,模拟走子的质量高,单次估值精度高但走子速度慢;模拟走子速度快乃至使用随机走子,虽然单次估值精度低,但可以多模拟几次算平均值,效果未必不好。所以说,如果有一个质量高又速度快的走子策略,那对于棋力的提高是非常有帮助的。 为了达到这个目标,神经网络的模型就显得太慢,还是要用传统的局部特征匹配(local pattern matching)加线性回归(logisticregression)的方法,这办法虽然不新但非常好使,几乎所有的广告推荐,竞价排名,新闻排序,都是用的它。与更为传统的基于规则的方案相比,它在吸纳了众多高手对局之后就具备了用梯度下降法自动调参的能力,所以性能提高起来会更快更省心。AlphaGo用这个办法达到了2微秒的走子速度和24.2%的走子准确率。24.2%的意思是说它的最好预测和围棋高手的下子有0.242的概率是重合的,相比之下,走棋网络在GPU上用2毫秒能达到57%的准确率。这里,我们就看到了走子速度和精度的权衡。 和训练深度学习模型不同,快速走子用到了局部特征匹配,自然需要一些围棋的领域知识来选择局部特征。对此AlphaGo只提供了局部特征的数目(见Extended Table 4),而没有说明特征的具体细节。我最近也实验了他们的办法,达到了25.1%的准确率和4-5微秒的走子速度,然而全系统整合下来并没有复现他们的水平。我感觉上24.2%并不能完全概括他们快速走子的棋力,因为只要走错关键的一步,局面判断就完全错误了;而图2(b)更能体现他们快速走子对盘面形势估计的精确度,要能达到他们图2(b)这样的水准,比简单地匹配24.2%要做更多的工作,而他们并未在文章中强调这一点。 在AlphaGo有了快速走子之后,不需要走棋网络和估值网络,不借助任何深度学习和GPU的帮助,不使用增强学习,在单机上就已经达到了3d的水平(见Extended Table 7倒数第二行),这是相当厉害的了。任何使用传统方法在单机上达到这个水平的围棋程序,都需要花费数年的时间。在AlphaGo之前,Aja Huang曾经自己写过非常不错的围棋程序,在这方面相信是有很多的积累的。 3. 估值网络 AlphaGo 的估值网络可以说是锦上添花的部分,从Fig 2(b)和Extended Table 7来看,没有它AlphaGo也不会变得太弱,至少还是会在7d-8d的水平。少了估值网络,等级分少了480分,但是少了走棋网络,等级分就会少掉800至1000分。特别有意思的是,如果只用估值网络来评估局面(2177),那其效果还不及只用快速走子(2416),只有将两个合起来才有更大的提高。我的猜测是,估值网络和快速走子对盘面估计是互补的,在棋局一开始时,大家下得比较和气,估值网络会比较重要;但在有复杂的死活或是对杀时,通过快速走子来估计盘面就变得更重要了。考虑到估值网络是整个系统中最难训练的部分(需要三千万局自我对局),我猜测它是最晚做出来并且最有可能能进一步提高的。 关于估值网络训练数据的生成,值得注意的是文章中的附录小字部分。与走棋网络不同,每一盘棋只取一个样本来训练以避免过拟合,不然对同一对局而言输入稍有不同而输出都相同,对训练是非常不利的。这就是为什么需要三千万局,而非三千万个盘面的原因。对于每局自我对局,取样本是很有讲究的,先用SL network保证走棋的多样性,然后随机走子,取盘面,然后用更精确的RLnetwork走到底以得到最正确的胜负估计。当然这样做的效果比用单一网络相比好多少,我不好说。 一个让我吃惊的地方是,他们完全没有做任何局部死活/对杀分析,纯粹是用暴力训练法训练出一个相当不错的估值网络。这在一定程度上说明深度卷积网络(DCNN)有自动将问题分解成子问题,并分别解决的能力。 另外,我猜测他们在取训练样本时,判定最终胜负用的是中国规则。所以说三月和李世石对局的时候也要求用中国规则,不然如果换成别的规则,就需要重新训练估值网络(虽然我估计结果差距不会太大)。至于为什么一开始就用的中国规则,我的猜测是编程非常方便(我在写DarkForest的时候也是这样觉得的)。 4. 蒙特卡罗树搜索 这部分基本用的是传统方法,没有太多可以评论的,他们用的是带先验的UCT,即先考虑DCNN认为比较好的着法,然后等到每个着法探索次数多了,选择更相信探索得来的胜率值。而DarkForest则直接选了DCNN推荐的前3或是前5的着法进行搜索。我初步试验下来效果差不多,当然他们的办法更灵活些,在允许使用大量搜索次数的情况下,他们的办法可以找到一些DCNN认为不好但却对局面至关重要的着法。 一个有趣的地方是在每次搜索到叶子节点时,没有立即展开叶子节点,而是等到访问次数到达一定数目(40)才展开,这样避免产生太多的分支,分散搜索的注意力,也能节省GPU的宝贵资源,同时在展开时,对叶节点的盘面估值会更准确些。除此之外,他们也用了一些技巧,以在搜索一开始时,避免多个线程同时搜索一路变化,这部分我们在DarkForest中也注意到了,并且做了改进。 5. 总结 总的来说,这整篇文章是一个系统性的工作,而不是一两个小点有了突破就能达到的胜利。在成功背后,是作者们,特别是两位第一作者David Silver和Aja Huang,在博士阶段及毕业以后五年以上的积累,非一朝一夕所能完成的。他们能做出AlphaGo并享有现在的荣誉,是实至名归的。 从以上分析也可以看出,与之前的围棋系统相比,AlphaGo较少依赖围棋的领域知识,但还远未达到通用系统的程度。职业棋手可以在看过了寥寥几局之后明白对手的风格并采取相应策略,一位资深游戏玩家也可以在玩一个新游戏几次后很快上手,但到目前为止,人工智能系统要达到人类水平,还是需要大量样本的训练的。可以说,没有千年来众多棋手在围棋上的积累,就没有围棋AI的今天。 在AlphaGo中,增强学习(Reinforcement Learning)所扮演的角色并没有想像中那么大。在理想情况下,我们希望人工智能系统能在对局中动态地适应环境和对手的招式并且找到办法反制之,但是在AlphaGo中增强学习更多地是用于提供更多质量更好的样本,给有监督学习(SupervisedLearning)以训练出更好的模型。在这方面增强学习还有很长的路要走。 另外,据他们的文章所言,AlphaGo整个系统在单机上已具有了职业水平,若是谷歌愿意开几万台机器和李世石对决(这对它来说再容易不过了,改个参数就行),相信比赛会非常精彩。 =========================== 一些更新。 问题1:“Alphago的MCTS做rollout的时候,除了使用快速走子,还用了搜索树的已有部分,看起来像是AMAF/RAVE反过来:AMAF是把快速走子的信息传导到树的其它无关部分,Alphago是把树的其它无关部分拿来增强快速走子。我怀疑这是不是它棋力比其它DCNN+MCTS强的原因之一。 这个办法在解死活题的文章中出现过,会在一定程度上提高搜索效率,但是提高多少还不知道。 问题2:“rollout的走法质量变好可能会导致棋力下降。” 这里要分两种情况,tree policy和default policy。在AlphaGo的文章里面已经说过了,tree policy的分布不能太尖,不然在搜索时太过重视一些看起来的好着,可能使得棋力下降。但是除了这种原因,一般来说tree policy变好棋力还是会变强的。 default policy 这边,即(半)随机走子到最后然后判分,就很复杂了,质量变好未必对局面能估得更准。default policy需要保证的是每块棋的死活大体正确,不要把死的棋下成活的或者反之,而对大局观的要求反而没有那么高。双方完全可以配合着把每块棋下完,然后转战另一块,而不是说抢在对方前去别处占先手。 如何看待 Google 围棋 AI AlphaGo 击败欧洲围棋冠军? https://www.zhihu.com/question/39905662
个人分类: 计算机&大数据|6368 次阅读|3 个评论
AlphaGo+Atlas发动一场战争如何?
热度 14 outcrop 2016-3-10 22:03
AlphaGo的媒体关注度比较高,以至于掩盖了同为Google旗下明星的 Atlas机器人 。 话说这Atlas机器人出自 波士顿动力公司 (Boston Dynamics),著名的大狗(Bigdog)、野猫(Wildcat)、阿狗(AlphaDog)等均出自起其门下,美国国防部的签约公司,被Google收购。 最近google推出的是新一代直立行走 人形机器人 Atlas,看视频,有震撼: 这家公司之前的四足爬行机器人也很厉害,跑步快过博尔特。 AlphaGo的策略能力,我们算是有所见识。 所以我们不妨现在就预演一下很接近现实的未来战争:AlphaGo类似系统的超强冷静的分析、决策、响应能力加上Atlas机器人、无人机等的高效无情执行能力,将是相当科幻而且冷酷的战争。 也许这就是我们目所能及的未来战争的雏形,人类也终将在越来越多的传统领域弱化,机器的崛起和替代将越来越普遍——是我们的幸运,也是我们的不幸。 延伸阅读 Boston Dynamics发布新一代Atlas人形机器人 ========================================================= 建了一个科学网博友QQ群:17662971,希望能闲聊无白丁,欢迎加入!加入请注明:科学网博友。
个人分类: 计算机应用技术|5761 次阅读|25 个评论
AlphaGo Vs 李世石:不公平的竞赛
热度 5 jiangming800403 2016-3-10 21:42
李世石在和一个影子对手作战,而在阿棋面前李世石是完全透明的。 虽然围棋变化无穷,但任何一个棋士的对弈总是有限的,李世石成名已久,他的棋艺总有规律可言,电脑的 超级运算速率可以发现其中的规律,保证迅速发现对手的误算,同时自己不会算错 。这是人类所不具有的能力,超级棋士很多时候是 依靠直觉下棋,这也是人工智能与智能之间的区别 。 李世石vs阿棋属于单盲实验,这是不公平的,结果也未必是公正的。 李世石所有实战的棋谱都是公开的 ,而李世石,包括我们 任何一个人都不知道互联网另一端到达是什么 ,到底是一台电脑,一群人,甚至是一条狗。 只有在双盲情况下,阿棋可以将匿名挑战的九段高手纷纷挑落马下,我才承认阿棋会下围棋 。但是大国手们可能没有兴趣陪这么一个电脑软件玩。 阿棋的棋艺大概就同经常被抨击的中国文化一样存在一个问题—— 缺乏创新性。实际上这也是人工智能之所以还是人工智能而不是人类智能一样,因为离开了人,它将什么都不是 。直到目前没有任何的人工智能程序可以创造性的提出新的人工智能程序。阿棋也不可能主动挑战李世石,而且如果不收集李世石的所有棋谱,阿棋大概永远战胜不了李世石。而且在 研究李世石的棋谱当中,是完全机械智能,还是还有一定的人工辅导我们都不得而知 。 Google是一个很讲政治正确性的公司,阿棋也是愈强则强。 IBM的深蓝曾经战胜过世界棋王,但以后 IBM对这类游戏就不太感兴趣,并且把硬盘业务卖给了 日立 ,把PC业务以及著名的Thinkpad品牌打包卖给了联想。 杨波 2016-3-10 20:08 目前alphago打劫能力成谜,往好了说,叫“避劫不争先,无为无不为”,往坏了说,你丫不会不懂打劫吧? 博主回复(2016-3-10 20:26) : 打劫成谜,也许是谷歌小李间秘密协议的禁手。 王国强 2016-3-10 18:17 很可能秘密协议里禁止使用打劫招法。似乎大多数围棋对局中都会出现打劫的局面,甚至劫争最终决定了棋局的胜负的也很多。然而已经进行的两局棋中,不仅没有出现打劫,而且甚至有比较明显的避免劫争的行棋痕迹。所以,这场所谓的”世纪大战“并不是一场公平比赛。 博主回复(2016-3-10 19:06) : 大家都在奇怪,为什么不打劫?似乎打劫成为禁手。但即使如此,第一局AlphaGo可以倒贴目小李,第二局更是15目左右的大胜。体现了人工智能的功力。 李一全 2016-3-10 17:52 没有选择打劫,有问题
个人分类: 科研八卦|3609 次阅读|13 个评论
[转载]木遥:关于 AlphaGo 论文的阅读笔记
kasolo 2016-3-10 21:42
2016 年 1 月 28 日,Deepmind 公司在 Nature 杂志发表论文 Mastering the game of Go with deep neural networks and tree search,介绍了 AlphaGo 程序的细节。本文是对这篇论文的阅读笔记,以及关于人工智能和围棋进一步的一些想法。 声明:我是数学 PhD 和软件工程师,但不是人工智能领域的专家。我也不会下围棋。 一、 AlphaGo 总体上由两个神经网络构成,以下我把它们简单称为「两个大脑」,这并非原文中的提法,只是我的一个比喻。 第一个大脑(Policy Network)的作用是在当前局面下判断下一步可以在哪里走子。它有两种学习模式: 一个是简单模式,它通过观察 KGS(一个围棋对弈服务器)上的对局数据来训练。粗略地说:这可以理解为让大脑学习「定式」,也就是在一个给定的局面下人类一般会怎么走,这种学习不涉及对优劣的判断。 另一个是自我强化学习模式,它通过自己和自己的海量对局的最终胜负来学习评价每一步走子的优劣。因为是自我对局,数据量可以无限增长。 第二个大脑(Value Network)的作用是学习评估整体盘面的优劣。它也是通过海量自我对局来训练的(因为采用人类对局会因为数据太少而失败)。 在对弈时,这两个大脑是这样协同工作的: 第一个大脑的简单模式会判断出在当前局面下有哪些走法值得考虑。 第一个大脑的复杂模式通过蒙特卡洛树来展开各种走法,即所谓的「算棋」,以判断每种走法的优劣。在这个计算过程中,第二个大脑会协助第一个大脑通过判断局面来砍掉大量不值得深入考虑的分岔树,从而大大提高计算效率。 与此同时,第二个大脑本身通过下一步棋导致的新局面的优劣本身也能给出关于下一步棋的建议。 最终,两个大脑的建议被平均加权,做出最终的决定。 在论文中一个有趣的结论是:两个大脑取平均的结果比依赖两者各自得出的结果都要好很多。这应当是让 AlphaGo 表现出和人类相似性的关键所在。 二、 如果我是这篇论文的审稿人,我会对论文提出下面这些问题和评论: 首先,这些神经网络训练在很大程度上是通过自我对局来实现的。这既是某种优势(按照 Facebook 人工智能研究员田渊栋的说法,几千万自我对局这种规模是相当惊人的数据量),某种程度上来说也是不得已而为之,因为人类对局的总数实在太少,会导致机器学习中常见的过度拟合问题。 但是这样是否有可能造成自我设限乃至画地为牢的后果?这同时牵涉到人们对神经网络学习过程的理解和对围棋本身的理解。一方面,神经网络本身是否包容一定程度的「think out of the box」的能力,这固然取决于具体的神经网络算法,但也确实是人们对神经网络方法的一个本质困惑。另一方面,因为 AlphaGo 最基础的定式仍然是来源于人类对局,因此,这个问题依赖于人类棋手本身是否已经穷尽了围棋中所有有意义的基本定式。 (作为一个案例,在 AlphaGo 和樊麾的第二盘对局中,很多人都注意到 AlphaGo 走了一个不标准的大雪崩定式,这是说明 AI 学错了呢,还是它发现这是更好的走法?) 其次,这两个大脑的工作方式确实和人类很相似,一个判断细部,一个纵览全局。但 AlphaGo 最终的结合两者的方式相当简单粗暴:让两者各自评估一下每种可能的优劣,然后取一个平均数。这可绝不是人类的思维方式。 对人类来说,这两种思考问题的方式的结合要复杂的多(不仅仅是在围棋中是这样)。人们并不是总是同时对事态做出宏观和微观的判断,而是有时候侧重于大局,有时候侧重于细部。具体的精力分配取决于事态本身,也取决于人在当时的情绪、心理和潜意识应激反应。这当然是人类不完美之处,但也是人类行为丰富性的源泉。 而 AlphaGo 固然体现出一定的大局观,但从具体算法看来,它在为了宏观优势做出局部牺牲这方面的能力和人类完全不能相提并论。AlphaGo 引入整体盘面评估确实是它胜于许多别的围棋 AI 的地方,但从根本上来说,这只是人们让 AI 具有「战略思维」的尝试的第一步,还有太多可以改进的可能性。 最后,和很多别的围棋 AI 一样,当 AlphaGo 学习盘面判断的时候,采用的是图像处理的技术,也就是把围棋棋盘当做一张照片来对待。这当然在技术上是很自然的选择,但是围棋棋局究竟不是一般意义上的图案,它是否具有某些特质是常见的图像处理方法本身并不擅长处理的呢? 三、 为什么要让人工智能去下围棋?有很多理由。但在我看来最重要的一个,是能够让我们更深入地理解智能这件事的本质。 神经网络和机器学习在过去十年里跃进式的发展,确实让 AI 做到了许多之前只有人脑才能做到的事。但这并不意味着 AI 的思维方式接近了人类。而且吊诡的是,AI 在计算能力上的巨大进步,反而掩盖了它在学习人类思维方式上的短板。 以 AlphaGo 为例。和国际象棋中的深蓝系统相比,AlphaGo 已经和人类接近了许多。深蓝仍然依赖于人类外部定义的价值函数,所以本质上只是个高效计算器,但 AlphaGo 的价值判断是自我习得的,这就有了人的影子。然而如前所述,AlphaGo 的进步依赖于海量的自我对局数目,这当然是它的长处,但也恰好说明它并未真正掌握人类的学习能力。一个人类棋手一生至多下几千局棋,就能掌握 AlphaGo 在几百万局棋中所训练出的判断力,这足以说明,人类学习过程中还有某种本质是暂时还无法用当前的神经网络程序来刻画的。 (顺便提一句,很多评论认为 AlphaGo 能够通过观察一个特定棋手的对局来了解他的棋风以做出相应的对策。至少从论文来看,这几乎确定是不可能的事。一个棋手的对局数对 AlphaGo 来说实在太少,无从对神经网络构成有效的训练。观察和总结一个人的「棋风」这件事仍然是人类具有完全优势的能力,对电脑来说,这恐怕比赢棋本身还更难一些。) 这当然不是说,AlphaGo 应该试图去复刻一个人类棋手的大脑。但是 AlphaGo 的意义当然也不应该仅仅反映在它最终的棋力上。它是如何成长的?成长曲线具有什么规律?它的不同参数设置如何影响它的综合能力?这些不同参数是否就对应了不同的棋风和性格?如果有另一个不同但水平相当的 AI 和它反复对弈,它能否从对方身上「学到」和自我对弈不同的能力?对这些问题的研究和回答,恐怕比单纯观察它是否有朝一日能够超越人类要告诉我们多得多的知识。 因此,即使 AlphaGo 在三月份战胜了李世乭,在我看来也是另一扇大门的开启而非关闭。事实上,即使就围棋发展本身而论,如果把 AlphaGo 的两个大脑以如此简单的方式线性耦合起来就能胜过人类,那只能说明人们对围棋的规律还有太多值得探索的空间。 而对人工智能领域来说,AlphaGo 和一切神经网络一样,本质上还只是个大黑盒,我们能观察到它表现出的巨大能力,但对它究竟是如何「思考」的这件事依然所知甚少。在工程上,这是个伟大的胜利。在科学上,这只是万里长征的第一步而已。 参考资料 AlphaGo 项目主页:http://www.deepmind.com/alpha-go.html Nature 论文:http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html Nature 报道:http://www.nature.com/news/google-ai-algorithm-masters-ancient-game-of-go-1.19234 Dan Maas 对论文的浅显总结:http://www.dcine.com/2016/01/28/alphago/
个人分类: TechNow|168 次阅读|0 个评论
从生物进化看AlphaGo和人工智能
热度 4 hypermarket 2016-3-10 11:58
2016年3月9日,被谷歌收购的英国DeepMind公司的人工智能围棋软件AlphaGo在与韩国围棋职业九段李世石的五番棋较量中以1:0领先,吸引了全世界的目光。在3月10日,更是扩大战果以2:0领先;如果说1天之前专业棋手和非专业人士对AlphaGo的胜利还觉得持保留态度的话,那么在3月10日已经普遍认可了这款软件的棋力。在人工智能的研究中,除了计算机科学和神经科学,其实也还有神经科学以外的仿生学内容,也就是对人类大脑以外的生物有机体结构或行为的模拟,所以其实我们也可以试着从进化生物学的角度来看看这件不寻常的事。 从生物进化的角度来说,智能的形成过程会经过5-6个阶段。第一个阶段,是生物有机体对于外界环境做出趋利避害的反应,这是所有生命现象都具有的基本特征。第二个阶段,是多细胞动物的起源以及神经细胞类型的出现,在此基础上出现神经节和脑的构造。第三个阶段,是一个物种的个体在群集行为的基础上,出现协作行为,并进一步形成分工协作。第四个阶段,是一个物种的世代重叠现象,使得年幼个体有机会直接学习年长个体的生存经验,形成知识的获得性遗传模式。第五个阶段,是符号系统和符号载体的出现,强化了知识的获得性遗传。第六个阶段,是随着物种生存能力的冗余和所形成的物质冗余,形成符号系统和信息介质的不断优化,持续提高知识获得性遗传的效率。虽然人脑是目前自然界中最为复杂的智能系统,但是其实上述不同阶段的生物有机体都有可能成为人工智能仿生学的参考对象。 生物中的人工智能模式 事实上,进入人工智能视野的生物有机体有多个物种,这其中最简单的生命形态是一种被称为多头绒泡菌Physarum polycephalum的黏菌(属于原生生物中的阿米巴Amoebozoa)。这种生物是一种单细胞生物、喜暗怕光,其最有趣的特点是其在平板培养基上的细胞生长路线对于平面交通网络等的设计具有参考价值(图1) 。如果将其食物源按照地图上一个国家的城市的位置进行摆放的话,那么黏菌生长路线形成的网络与现实中比较完备的公路、铁路等网络具有很高的相似性。也就是说,虽然从生物学的角度看,黏菌不属于多细胞动物、没有神经细胞分化、没有脑,但是其细胞生长对于食物源化学信号的感知和反应已经可以为人工智能的设计提供参考。为什么黏菌的生长可以从一个食物源开始,以非常接近最短路线的方式到达其它食物源呢?究其原因,单细胞的属性应该是一个方面的因素。作为具有很强变形能力的单细胞(阿米巴也叫变形虫),细胞膜的局部形变突出是对食物源化学信号浓度梯度做出的反应,如果向着某个方向形变感受到的浓度更高就继续生长,如果感受到的浓度更低就保持或退回,和所有基于特定优化原则进行搜索的策略是一样的。相对来说,虽然脊椎动物循环系统、昆虫气管系统在个体发育的形态建成过程中也具有类似的氧气浓度依赖性,但是多细胞的分化方式决定了移除不再有用的结构需要以细胞程序化死亡的方式进行(可以理解为降解掉细胞),而不是像变形虫一样降解掉细胞内部的相关细胞骨架即可 。也就是说,无需神经细胞和大脑构造就可以形成高效率的生存策略,趋利避害、知错就改,这其实也就是个体学习的本质。 图1. 黏菌网络与东京铁路网的对照。A表示在限定地图形状区域内的暗环境下自由生长的黏菌网络;B表示以高光照模拟高海拔对黏菌生长进行限制后的黏菌生长网络结果;C表示从B抽象出来的拓扑网络;D表示实际的东京铁路网络;E表示东京铁路站点间的最小生成树(minimum spanning tree, MST);F表示在最小生成树基础上增加额外连接形成的网络。 当多细胞动物形成之后,一个生物个体在感知外界环境和做出反应的效率等方面都有所提高。需要注意的是,生物学讲的多细胞并不仅是强调一个个体内所含的细胞数量多,而是出现了细胞类型的分化;也就是说,一个个体内的细胞之间存在分工协作的关系,而不只是在空间上的简单聚集、在一起生活。有了神经细胞的细胞类型,才有了形成神经细胞连接、神经节的基础。在两侧对称动物Bilateria中,随着身体前端逐步集中了嗅觉、视觉、听觉等多种感官功能,头部神经节在绝大多数动物中逐步成为身体内最大的神经节,成为后来大脑的雏形。 绝大多数动物为有性生殖物种,出于交配繁殖的需要,大多数动物物种的个体或多或少都群集生活,但是群体性的程度可以相差很多,有的物种的群体性明显更强。在智能程度比较高的生物有机体中,最著名的两类可能是社会性昆虫(蜚蠊目的白蚁,膜翅目的蚁科、蜜蜂科、胡蜂科等)和灵长目动物,它们的个体都具有脑占身体比重高的特点,这个指标往往作为衡量生物有机体智能高低的一个关键指标,这个指标高的生物的确常在智能方面有更复杂的行为和更好的表现,例如软体动物门中的头足纲动物Cephalopoda(章鱼、鱿鱼等)。在脑体比重高这个个体层面的共同点背后,其实还有另外一个更深层次的共同点,那就是这两类动物的种内个体间关系普遍都很复杂(虽然包括人类在内的灵长目动物的社会性与社会性昆虫的真社会性有所区别,但是毕竟都存在复杂的个体间关系)。事实上,脑体比重高和种内复杂个体间关系这两个特点往往相伴而生(例如鲸目动物Cetacea中也是这样),对于两者之间的因果关系,一般普遍认为群体性与个体间协作行为的需求是前提、是基础。在社会性昆虫中,白蚁以取食真菌为主,蜜蜂和胡蜂的运动方式都是飞行,而蚂蚁则是以收集-捕食为主、并且大多在地面爬行运动,相对来说蚂蚁的行为既复杂又容易被观察(图2),为蚁群算法(Ant Colony Algorithms)的提出提供了基础。蚁群算法最早由Marco Dorigo在博士论文工作期间提出 ,是群智能方法(swarm intelligence methods)的一种,可以为人们解决路径优化的问题提供帮助。 图2. 活动中的蚁群(图片来自维基百科) 在不同的一面,灵长类动物的个体能力要高于社会性昆虫的个体能力,两者分属于生态学上的K对策生物和r对策生物(前者一般繁殖率低、后代个体数量少、个体大、寿命长,后者则相反)。也就是说,虽然社会性昆虫个体的脑体比重在昆虫中是相对高的,但是每一个单独的个体受制于自己脑神经节规模的限制,很难表现出比较复杂的智能行为,只有群体才能表现出协同捕食、筑巢等复杂行为,具有个体数量依赖性。也因此,社会性昆虫会被称为超级有机体(superorganism) 。相对来说,灵长目动物的个体脑容量更大、神经连接的复杂性空间更大,并且从长的寿命和世代重叠的属性中,可以进入新的智能进化阶段,也就是知识的获得性遗传特性。所有的个体之间都可以相互学习,尤其是年幼和年青个体可以直接从年长个体的生存经历中学习经验。 图3. 澳大利亚罗盘白蚁Nasutitermes triodiae的巢可高达5米、历经50年建成(图片来源于网络) 在现生的灵长目动物中,人的脑体比重是最高的、脑的绝对容量是最大的、个体间关系是最复杂的。关于人类大脑容量的进化,最新奇有趣的视角可能是天文学的。有研究显示,人类大脑容量增加并非匀速的,而是与外界环境的周期性密切相关。受引力影响,地球公转轨道的扁率和地轴倾角都会有周期性变动,而人类脑容量增加最显著的时期往往是气候变化最为剧烈的时期(图4) 。看来人类智力的进化历史,就是一部人类生于忧患的历史。 随着人类大脑的容量和复杂度提高,人类的智能进化相对于其它灵长类动物又进入了新的阶段。人类的语言和文字等符号系统增强了对于外部环境的描述能力、提高了个体间的信息交流效率,而随着将符号记录在岩壁、树皮、草绳的过程,人类对外部环境的认识可以开始不依托于人脑的记录而独立存在,知识的获得性遗传效率由此进一步提升。 图4. 地球运动的不同周期 人工智能与人类智能 随着人类生存能力和物质积累的冗余程度提高,人类中的部分成员逐步发展出更精细而高效的符号系统和知识体系、提升了人类的推演能力和效率,还不断更新了信息载体的形式,使得独立于人类作为生物有机体之外存在的信息量持续增大,而这两方面的结合,使得基于人类已有知识在计算机系统上进行类似人脑思维方式的推演成为可能。由此,计算机的人工智能可以形成对人类智能的所谓超越。 说到人工智能,就必须提到与DeepMind公司同为英国人的图灵(AlanTuring, 1912-1954)和彭罗斯(Roger Penrose, 1931-),前者是人工智能的奠基人(同时也提出了生物有机体发育过程中模式建成的理论),后者作为数学和物理学领域国际顶尖的学者,曾经写过著名的科普读物《皇帝新脑》(The Emperor's New Mind)(看来英国在人工智能领域真是强大)。彭罗斯教授指出,即使人工智能和人脑原理在算法本质上可能没有区别,但是在硬件方面,人脑是一个动态系统。 沿着彭罗斯教授的思路,我们可以看到AlphaGo仍然和人脑有很大不同,因为他还不是一个可以自主运行的系统,还需要人的参与;也就是说,人类的智慧进步过程中,通过输入和输出的持续反馈,人脑的硬件结构会持续做出调整但是并不是直接被外力改变,而人脑的思维(算法)又是依赖于各种细胞和分子构件的硬件,相比之下,AlphaGo可能还不会通过输入和输出的各种反馈而自己改变算法(不知道实际情况是不是这样),而是要依靠人类设计者团队去优化算法。人类的知识进步本来就是拉马克式遗传或者叫获得性遗传(源于人类的长寿命、世代重叠、符号交流,后来各种信息介质的发明不断强化了这一点),因此,至少目前AlphaGo仍然可以被视为人类知识积累在计算机硬件辅助下的一种延伸,而不是一种简单的并行或竞争关系。即使AlphaGo可以有一天自我优化源程序,那么他的数据起点,仍然是源于人类的长期积累(也就是说李世石主要是在和历史上成千上万棋手的共同智慧对弈,以及Alphago基于历史经验通过自我对弈虚拟的众多未来棋手的共同智慧对弈)。 假如这些电脑软件能在围棋联赛和国际比赛中持续胜出,那么应该说生物的大脑仍然具有一个方面的优势,就是能量效率。如果围棋软件使用与人类神经细胞与连接数的规模相当的硬件及算法(如果高于人脑规模那么这本身会是潜在的不公平),人类大脑的耗能在对战过程中肯定还是要低得多。人类成年个体典型的平均功率是100W,其中大脑功率在20W的样子,如果假设用脑时的功率上升50%,那也不过就是30W左右。 由此,通过回顾人类智能在生物进化历程中走过的几个阶段,通过认识人工智能目前对人类知识积累和人工干预的依赖程度,通过了解人工智能与人类智能目前在能量效率和直接面向环境变化等方面的区别,才有利于人们更加全面而理性地思考人工智能与人类智能之间的关系。 另见:谢强. 人工智能中的仿生学 . 科技导报, 2016, 34(7): 85-87. http://www.kjdb.org/CN/abstract/abstract13541.shtml (进化生物学的教学幻灯片可以参考之前的日志《进化生物学教学幻灯片2015高清版》 http://blog.sciencenet.cn/blog-1292052-862118.html ) 参考文献 Tero A, et al. 2010. Rules for Biologically Inspired Adaptive Network Design. Science 327: 439-442. Dorigo M. 1992. Optimization, Learning and Natural Algorithms, PhD thesis, Politecnico di Milano, Italy. Grove M, et al. 2012. Orbital dynamics, environmental heterogeneity, and the evolution of the human brain. Intelligence 40: 404-418.
9001 次阅读|5 个评论
棋谱和算法:计算机下棋VS计算机玩魔方
热度 3 大毛忽洞 2016-3-10 07:49
棋谱和算法:计算机下棋 VS 计算机玩魔方 我的计算机程序玩三阶魔方复位,时间不到 1 秒。 靠的是棋谱和调用棋谱的算法以及棋谱之间切换的算法。 (^_^用不了多久,我也会挑战 Google ,看看复位 13 阶魔方谁的程序快?) 前篇( 当头炮,马来调 VS :也谈 AlphaGo 战胜李世石 )说:魔方属于棋类。是的,无论从发展演化历史看,还是从玩法看,魔方就是棋类。 象棋有谱,围棋也有谱,魔方也有谱。 对于玩魔方复位,奋斗目标是一个硬条件,那就是把搅乱了的魔方恢复到原始状态。如果你不知道魔方的复位谱,你永远也赢不了(把魔方复位)。 下棋则不然,其奋斗目标是一个软条件。 如果你是 10 段,你的对手是 9 段,你就容易赢,有没有棋谱都无所谓。 如果你是 9 段,你的对手是 8 段,你就容易赢,有没有棋谱无所谓。 以此类推。 AlphaGo 是计算机程序,必须要有棋谱! 当然了,不但要有棋谱,还需要有调用棋谱的算法! 还需要有切换棋谱的算法!(离开棋谱,谈别的都是瞎扯淡!) AlphaGo 是几段棋手? 很简单,是骡是马,拉出来溜溜(对局)。 如果能赢 8 段, AlphaGo 就是 9 段棋手; 如果能赢 9 段, AlphaGo 就是 10 段棋手; 如果能赢 10 段, AlphaGo 就是 11 段棋手; 如果能赢 11 段, AlphaGo 就是 12 段大师! 如果 AlphaGo 赢了,是真正的赢了, 因为 AlphaGo 不需要吃兴奋剂,也不需要吃摇头丸! 为什么? 因为棋谱不需要摇头丸,也不需要兴奋剂。 算法也不需要摇头丸,也不需要兴奋剂。 AlphaGo 也不需要什么粉丝! 棋谱就是棋谱,算得就是算法! 科学不需要摇头丸,也不需要兴奋剂! 我的实战体会: (计算机复位三阶魔方,普通 PC 机,时间不到 1 秒钟): 上( W : z )下( S : -z )前( R : x )后( G : -x )左( B : -y )右( Y : y ), 位于笛卡儿坐标系正方向的面,用右手操作,拇指是正轴方向,弯曲的四指表示转动方向;位于笛卡儿坐标系负方向的面,用左手操作,拇指是负轴方向,弯曲的四指表示转动方向。 T 表示操作, W 、 S 等前面的 1 没有特别含义, RC表示转角,1是90;2是180;3是270。C表示周期,在本问题中可以忽略。 N=,1, T=,1G, RC=,2, C=,1 S,S,S, ,R,R,R, ,B,B,B, ,S,S,W, ,B,B,Y, ,G,G,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,S,S,W, ,B,B,Y, ,G,G,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,S,S,W, ,B,B,Y, ,G,G,G, N=,2, T=,1B, RC=,2, C=,1 S,S,S, ,G,R,R, ,B,B,B, ,S,S,W, ,Y,B,B, ,G,G,G, S,W,W, ,G,R,R, ,Y,Y,Y, ,S,S,W, ,Y,B,B, ,G,G,G, W,W,W, ,G,R,R, ,Y,Y,Y, ,S,W,W, ,Y,B,B, ,R,R,R, N=,3, T=,1W, RC=,1, C=,1 S,W,W, ,B,B,Y, ,R,B,B, ,S,S,W, ,Y,B,B, ,G,G,Y, S,W,W, ,G,R,R, ,R,Y,Y, ,S,S,W, ,Y,B,B, ,G,G,Y, S,S,W, ,G,R,R, ,G,Y,Y, ,S,W,W, ,R,G,G, ,R,R,B, N=,4, T=,1Y, RC=,2, C=,1 S,W,S, ,B,B,G, ,Y,Y,G, ,W,W,W, ,Y,B,B, ,Y,R,R, S,W,S, ,G,R,G, ,Y,Y,R, ,S,S,W, ,Y,B,B, ,G,G,Y, S,S,W, ,G,R,Y, ,B,B,R, ,S,W,W, ,R,G,G, ,R,R,B, N=,5, T=,1W, RC=,2, C=,1 W,S,S, ,R,Y,B, ,R,Y,G, ,W,W,W, ,Y,B,B, ,Y,R,B, S,W,S, ,G,R,G, ,G,Y,R, ,S,S,W, ,Y,B,B, ,G,G,B, S,W,S, ,G,R,Y, ,G,B,R, ,S,W,W, ,Y,Y,B, ,R,R,G, N=,6, T=,1G, RC=,1, C=,1 R,Y,G, ,R,Y,B, ,W,W,W, ,W,W,B, ,Y,B,W, ,R,G,Y, S,W,S, ,G,R,G, ,G,Y,R, ,S,S,B, ,Y,B,S, ,R,G,R, S,W,S, ,G,R,Y, ,G,B,R, ,S,W,B, ,Y,Y,S, ,G,B,B, N=,7, T=,1W, RC=,3, C=,1 S,S,R, ,G,G,W, ,B,W,W, ,W,W,B, ,Y,B,W, ,R,G,S, W,W,Y, ,G,R,G, ,R,Y,R, ,S,S,B, ,Y,B,S, ,R,G,Y, S,S,G, ,G,R,Y, ,Y,B,R, ,S,W,B, ,B,Y,R, ,G,B,Y, N=,8, T=,1G, RC=,2, C=,1 B,B,B, ,G,G,W, ,W,S,R, ,W,W,S, ,Y,B,B, ,Y,B,G, W,W,Y, ,G,R,G, ,R,Y,R, ,S,S,S, ,Y,B,W, ,Y,G,R, S,S,G, ,G,R,Y, ,Y,B,R, ,S,W,R, ,B,Y,W, ,S,G,R, N=,9, T=,1Y, RC=,3, C=,1 B,B,W, ,G,G,W, ,Y,R,W, ,Y,B,G, ,Y,B,B, ,B,Y,G, W,W,G, ,G,R,W, ,B,Y,S, ,S,S,S, ,Y,B,W, ,Y,G,R, S,S,Y, ,G,R,S, ,R,R,R, ,S,W,R, ,B,Y,W, ,S,G,R, N=,10, T=,1B, RC=,3, C=,1 G,B,W, ,S,G,W, ,Y,R,W, ,Y,B,G, ,B,W,W, ,B,Y,G, G,W,G, ,W,R,W, ,B,Y,S, ,S,S,S, ,B,B,Y, ,Y,G,R, G,S,Y, ,R,R,S, ,R,R,R, ,S,G,R, ,Y,Y,B, ,B,W,S, N=,11, T=,1W, RC=,3, C=,1 G,G,G, ,R,B,Y, ,S,R,W, ,Y,B,G, ,B,W,W, ,B,Y,B, S,W,B, ,W,R,W, ,R,Y,S, ,S,S,S, ,B,B,Y, ,Y,G,Y, Y,G,W, ,R,R,S, ,G,R,R, ,S,G,R, ,W,G,S, ,B,W,Y, N=,12, T=,1R, RC=,2, C=,1 G,G,G, ,S,R,R, ,S,R,W, ,Y,B,G, ,G,W,W, ,B,Y,B, S,W,B, ,W,R,W, ,R,Y,S, ,G,S,S, ,R,B,Y, ,Y,G,Y, Y,S,S, ,Y,B,R, ,B,B,W, ,W,G,R, ,R,G,S, ,B,W,Y, N=,13, T=,1W, RC=,3, C=,1 Y,S,G, ,B,R,S, ,Y,R,W, ,Y,B,G, ,G,W,W, ,B,Y,S, S,W,G, ,W,R,W, ,Y,Y,S, ,G,S,S, ,R,B,Y, ,Y,G,G, S,B,G, ,Y,B,R, ,B,B,W, ,W,G,R, ,R,R,S, ,B,W,R, N=,14, T=,1R, RC=,3, C=,1 Y,S,G, ,Y,W,B, ,Y,R,W, ,B,B,G, ,Y,W,W, ,B,Y,S, S,W,G, ,B,R,R, ,Y,Y,S, ,B,S,S, ,G,B,Y, ,Y,G,G, G,R,R, ,R,W,S, ,S,B,G, ,W,G,R, ,W,R,S, ,B,W,R, N=,15, T=,1W, RC=,2, C=,1 R,R,G, ,S,G,R, ,W,R,W, ,B,B,G, ,Y,W,W, ,B,Y,Y, G,W,S, ,B,R,R, ,R,Y,S, ,B,S,S, ,G,B,Y, ,Y,G,W, G,S,Y, ,R,W,S, ,S,B,G, ,W,G,R, ,Y,Y,S, ,B,W,B, N=,16, T=,1G, RC=,2, C=,1 G,S,R, ,S,G,R, ,W,Y,S, ,B,B,R, ,Y,W,W, ,B,W,B, G,W,S, ,B,R,R, ,R,Y,S, ,B,S,R, ,G,B,R, ,W,G,Y, G,S,Y, ,R,W,S, ,S,B,G, ,W,G,G, ,Y,Y,W, ,Y,Y,B, N=,17, T=,1S, RC=,2, C=,1 G,S,R, ,S,G,R, ,W,Y,Y, ,G,G,W, ,S,S,G, ,R,W,B, G,W,S, ,B,R,R, ,R,Y,W, ,R,S,B, ,G,B,R, ,W,G,Y, G,S,Y, ,B,W,Y, ,S,B,W, ,R,B,B, ,Y,Y,W, ,S,Y,B, N=,18, T=,1Y, RC=,2, C=,1 G,S,G, ,S,G,R, ,W,B,S, ,R,S,Y, ,S,S,G, ,R,R,Y, G,W,G, ,B,R,W, ,W,Y,R, ,R,S,B, ,G,B,R, ,W,G,Y, G,S,W, ,B,W,B, ,Y,Y,W, ,R,B,B, ,Y,Y,W, ,S,Y,B, N=,19, T=,1S, RC=,2, C=,1 G,S,G, ,S,G,R, ,W,B,S, ,B,B,R, ,S,R,W, ,B,R,Y, G,W,G, ,B,R,W, ,W,Y,S, ,B,S,R, ,G,B,R, ,W,G,Y, G,S,W, ,R,W,S, ,Y,Y,G, ,Y,S,R, ,Y,Y,W, ,B,Y,B, N=,20, T=,1B, RC=,3, C=,1 S,S,G, ,Y,G,R, ,W,B,S, ,B,B,R, ,W,R,W, ,B,R,Y, B,W,G, ,S,R,W, ,W,Y,S, ,B,S,R, ,R,B,Y, ,W,G,Y, R,S,W, ,R,W,S, ,Y,Y,G, ,B,Y,B, ,S,G,Y, ,G,G,G, 复位开始N=¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥ Call FuWeiFor101====,8-Li101FromT0TB N=,1, T=,1G, RC=,1, C=,1 W,B,S, ,Y,G,R, ,R,R,B, ,B,B,W, ,W,R,S, ,G,W,B, B,W,G, ,S,R,W, ,W,Y,S, ,B,S,Y, ,R,B,S, ,G,G,R, R,S,W, ,R,W,S, ,Y,Y,G, ,B,Y,Y, ,S,G,G, ,G,Y,Y, N=,2, T=,1Y, RC=,1, C=,1 W,B,G, ,Y,G,S, ,B,S,G, ,R,W,S, ,W,R,S, ,B,B,W, B,W,W, ,S,R,G, ,R,Y,Y, ,B,S,Y, ,R,B,S, ,G,G,R, R,S,B, ,R,W,W, ,R,W,Y, ,B,Y,Y, ,S,G,G, ,G,Y,Y, N=,3, T=,1W, RC=,3, C=,1 R,B,W, ,R,R,B, ,Y,S,G, ,R,W,S, ,W,R,S, ,B,B,G, S,W,B, ,S,R,G, ,R,Y,Y, ,B,S,Y, ,R,B,S, ,G,G,G, B,W,G, ,R,W,W, ,W,W,Y, ,B,Y,Y, ,S,G,Y, ,G,Y,S, Call FuWeiFor011====,5-Li011From01TA N=,4, T=,1Y, RC=,2, C=,1 R,B,R, ,R,R,B, ,Y,W,W, ,W,B,G, ,W,R,S, ,B,G,W, S,W,W, ,S,R,B, ,Y,Y,R, ,B,S,Y, ,R,B,S, ,G,G,G, B,W,S, ,R,W,G, ,G,S,Y, ,B,Y,Y, ,S,G,Y, ,G,Y,S, Call FuWeiForT01====,8-LiT01FromT10A N=,5, T=,1G, RC=,1, C=,1 Y,W,W, ,R,R,B, ,G,Y,Y, ,W,B,S, ,W,R,R, ,G,G,B, S,W,W, ,S,R,B, ,Y,Y,R, ,B,S,S, ,R,B,B, ,Y,G,G, B,W,S, ,R,W,G, ,G,S,Y, ,B,Y,Y, ,S,G,R, ,S,G,W, Call FuWeiFor0T1====,3-Li0T1From10TB N=,6, T=,1R, RC=,3, C=,1 Y,W,W, ,R,S,R, ,G,Y,Y, ,G,B,S, ,W,R,R, ,G,G,B, S,W,W, ,W,R,R, ,Y,Y,R, ,S,S,S, ,B,B,B, ,Y,G,G, W,R,S, ,G,B,B, ,B,W,S, ,Y,Y,Y, ,B,G,R, ,S,G,W, N=,7, T=,1B, RC=,3, C=,1 R,W,W, ,Y,S,R, ,G,Y,Y, ,G,B,S, ,R,B,R, ,G,G,B, W,W,W, ,Y,R,R, ,Y,Y,R, ,S,S,S, ,R,B,G, ,Y,G,G, G,R,S, ,Y,B,B, ,B,W,S, ,S,G,W, ,W,B,B, ,Y,S,W, N=,8, T=,1R, RC=,1, C=,1 R,W,W, ,R,R,B, ,G,Y,Y, ,R,B,S, ,G,B,R, ,G,G,B, W,W,W, ,S,R,B, ,Y,Y,R, ,R,S,S, ,R,B,G, ,Y,G,G, B,W,S, ,Y,Y,Y, ,G,S,S, ,W,G,W, ,S,B,B, ,Y,S,W, Call FuWeiFor111====,7-Li111FromTTTC N=,9, T=,1S, RC=,1, C=,1 R,W,W, ,R,R,B, ,G,Y,Y, ,W,R,R, ,Y,Y,G, ,S,G,B, W,W,W, ,S,R,B, ,Y,Y,Y, ,G,S,B, ,R,B,G, ,R,G,G, B,W,S, ,R,B,G, ,G,S,Y, ,W,S,S, ,S,B,B, ,Y,S,W, N=,10, T=,1R, RC=,2, C=,1 R,W,W, ,G,B,R, ,G,Y,Y, ,B,R,R, ,G,Y,G, ,S,G,B, W,W,W, ,B,R,S, ,Y,Y,Y, ,W,S,B, ,S,B,G, ,R,G,G, W,G,W, ,B,R,R, ,Y,R,S, ,S,S,S, ,Y,B,B, ,Y,S,W, N=,11, T=,1Y, RC=,3, C=,1 R,W,R, ,G,B,B, ,Y,Y,G, ,S,G,B, ,G,Y,G, ,W,W,W, W,W,S, ,B,R,R, ,R,Y,Y, ,W,S,B, ,S,B,G, ,R,G,G, W,G,R, ,B,R,R, ,S,Y,Y, ,S,S,S, ,Y,B,B, ,Y,S,W, N=,12, T=,1R, RC=,2, C=,1 R,W,R, ,R,R,B, ,Y,Y,G, ,W,G,B, ,S,Y,G, ,W,W,W, W,W,S, ,R,R,B, ,R,Y,Y, ,G,S,B, ,Y,B,G, ,R,G,G, S,W,S, ,B,B,G, ,G,S,Y, ,R,S,S, ,Y,B,B, ,Y,S,W, N=,13, T=,1Y, RC=,1, C=,1 R,W,W, ,R,R,R, ,G,Y,Y, ,B,B,G, ,S,Y,G, ,W,G,B, W,W,W, ,R,R,S, ,Y,Y,S, ,G,S,B, ,Y,B,G, ,R,G,G, S,W,W, ,B,B,S, ,Y,R,G, ,R,S,S, ,Y,B,B, ,Y,S,W, N=,14, T=,1S, RC=,1, C=,1 R,W,W, ,R,R,R, ,G,Y,S, ,R,G,B, ,Y,R,W, ,G,G,B, W,W,W, ,R,R,S, ,Y,Y,B, ,S,S,B, ,Y,B,G, ,S,G,G, S,W,W, ,G,Y,S, ,Y,R,B, ,S,B,G, ,Y,B,B, ,Y,S,W, N=,15, T=,1B, RC=,1, C=,1 Y,W,W, ,R,R,R, ,G,Y,S, ,R,G,B, ,Y,Y,Y, ,G,G,B, S,W,W, ,W,R,S, ,Y,Y,B, ,S,S,B, ,B,B,R, ,S,G,G, W,W,W, ,S,Y,S, ,Y,R,B, ,R,R,G, ,B,G,W, ,S,B,G, N=,16, T=,1S, RC=,3, C=,1 Y,W,W, ,R,R,R, ,G,Y,S, ,B,B,G, ,S,Y,S, ,Y,G,B, S,W,W, ,W,R,S, ,Y,Y,S, ,G,S,R, ,B,B,R, ,Y,G,G, W,W,W, ,B,B,S, ,Y,R,G, ,R,S,R, ,B,G,W, ,Y,B,G, N=,17, T=,1B, RC=,3, C=,1 R,W,W, ,R,R,R, ,G,Y,S, ,B,B,G, ,S,R,W, ,Y,G,B, W,W,W, ,S,R,S, ,Y,Y,S, ,G,S,R, ,Y,B,G, ,Y,G,G, B,W,W, ,R,B,S, ,Y,R,G, ,Y,B,G, ,S,B,B, ,Y,S,W, Call FuWeiFor1T1====,4-Li1T1FromTT1A N=,18, T=,1G, RC=,1, C=,1 G,Y,S, ,R,R,R, ,G,R,G, ,B,B,W, ,S,R,R, ,Y,Y,Y, W,W,W, ,S,R,S, ,Y,Y,S, ,G,S,G, ,Y,B,W, ,S,G,G, B,W,W, ,R,B,S, ,Y,R,G, ,Y,B,B, ,S,B,W, ,W,G,B, N=,19, T=,1R, RC=,1, C=,1 G,Y,S, ,R,S,S, ,G,R,G, ,S,B,W, ,B,R,R, ,Y,Y,Y, W,W,W, ,R,R,B, ,Y,Y,S, ,Y,S,G, ,W,B,W, ,S,G,G, Y,R,G, ,R,S,R, ,B,G,Y, ,S,B,B, ,W,B,W, ,W,G,B, N=,20, T=,1S, RC=,1, C=,1 G,Y,S, ,R,S,S, ,G,R,R, ,S,Y,S, ,W,S,Y, ,Y,Y,Y, W,W,W, ,R,R,B, ,Y,Y,S, ,B,S,B, ,W,B,W, ,S,G,G, Y,R,G, ,R,R,B, ,B,G,R, ,B,G,W, ,W,B,W, ,G,G,B, N=,21, T=,1R, RC=,3, C=,1 G,Y,S, ,R,R,R, ,G,R,R, ,B,Y,S, ,S,S,Y, ,Y,Y,Y, W,W,W, ,R,R,S, ,Y,Y,S, ,G,S,B, ,B,B,W, ,S,G,G, W,W,W, ,B,B,S, ,Y,R,G, ,R,G,W, ,B,B,W, ,G,G,B, N=,22, T=,1G, RC=,3, C=,1 Y,W,W, ,R,R,R, ,G,Y,S, ,B,Y,G, ,S,S,S, ,Y,G,B, W,W,W, ,R,R,S, ,Y,Y,S, ,G,S,R, ,B,B,B, ,Y,G,G, W,W,W, ,B,B,S, ,Y,R,G, ,R,G,R, ,B,B,W, ,Y,S,G, Call FuWeiForTT1====,1-LiTT1FromT11B N=,23, T=,1Y, RC=,3, C=,1 Y,W,R, ,R,R,B, ,Y,Y,G, ,Y,G,B, ,S,S,S, ,W,W,W, W,W,S, ,R,R,Y, ,R,Y,Y, ,G,S,R, ,B,B,B, ,Y,G,G, W,W,S, ,B,B,G, ,G,S,S, ,R,G,R, ,B,B,W, ,Y,S,G, N=,24, T=,1S, RC=,2, C=,1 Y,W,R, ,R,R,B, ,Y,Y,S, ,R,G,R, ,G,Y,S, ,B,W,W, W,W,S, ,R,R,Y, ,R,Y,S, ,R,S,G, ,B,B,B, ,B,G,G, W,W,S, ,W,Y,Y, ,G,S,S, ,B,G,Y, ,B,B,W, ,G,S,G, N=,25, T=,1G, RC=,1, C=,1 Y,Y,S, ,R,R,B, ,R,G,Y, ,R,G,S, ,G,Y,Y, ,G,B,B, W,W,S, ,R,R,Y, ,R,Y,S, ,R,S,B, ,B,B,W, ,S,G,W, W,W,S, ,W,Y,Y, ,G,S,S, ,B,G,W, ,B,B,R, ,G,G,W, N=,26, T=,1S, RC=,3, C=,1 Y,Y,S, ,R,R,B, ,R,G,G, ,S,B,W, ,Y,Y,W, ,Y,B,B, W,W,S, ,R,R,Y, ,R,Y,S, ,G,S,G, ,B,B,W, ,Y,G,W, W,W,S, ,S,S,Y, ,G,S,G, ,R,R,B, ,B,B,R, ,G,G,W, N=,27, T=,1G, RC=,3, C=,1 W,W,R, ,R,R,B, ,Y,Y,S, ,S,B,R, ,Y,Y,W, ,B,W,W, W,W,S, ,R,R,Y, ,R,Y,S, ,G,S,G, ,B,B,G, ,B,G,G, W,W,S, ,S,S,Y, ,G,S,G, ,R,R,G, ,B,B,B, ,Y,Y,G, N=,28, T=,1Y, RC=,1, C=,1 W,W,B, ,R,R,R, ,S,S,G, ,B,Y,Y, ,Y,Y,W, ,S,B,R, W,W,W, ,R,R,S, ,Y,Y,S, ,G,S,G, ,B,B,G, ,B,G,G, W,W,W, ,S,S,S, ,Y,R,G, ,R,R,G, ,B,B,B, ,Y,Y,G, Call FuWeiForT11====,4-LiT11FromTTTA N=,29, T=,1Y, RC=,3, C=,1 W,W,R, ,R,R,B, ,Y,Y,S, ,S,B,R, ,Y,Y,W, ,B,W,W, W,W,S, ,R,R,Y, ,R,Y,S, ,G,S,G, ,B,B,G, ,B,G,G, W,W,S, ,S,S,Y, ,G,S,G, ,R,R,G, ,B,B,B, ,Y,Y,G, N=,30, T=,1S, RC=,3, C=,1 W,W,R, ,R,R,B, ,Y,Y,Y, ,R,G,G, ,Y,S,S, ,W,W,W, W,W,S, ,R,R,Y, ,R,Y,B, ,B,S,R, ,B,B,G, ,Y,G,G, W,W,S, ,G,S,S, ,G,S,B, ,S,G,R, ,B,B,B, ,Y,Y,G, N=,31, T=,1Y, RC=,1, C=,1 W,W,W, ,R,R,R, ,Y,B,B, ,B,Y,S, ,Y,S,S, ,R,G,G, W,W,W, ,R,R,S, ,Y,Y,S, ,B,S,R, ,B,B,G, ,Y,G,G, W,W,W, ,G,S,S, ,Y,R,G, ,S,G,R, ,B,B,B, ,Y,Y,G, Call FuWeiFor110====,3-Li110FromT0TA---------(-z,3)+表7-7 N=,32, T=,1R, RC=,3, C=,1 W,W,W, ,G,R,R, ,Y,B,B, ,Y,Y,S, ,B,S,S, ,R,G,G, W,W,W, ,S,R,R, ,Y,Y,S, ,R,S,R, ,B,B,G, ,Y,G,G, Y,B,B, ,S,S,R, ,W,W,W, ,G,G,R, ,S,B,B, ,Y,Y,G, N=,33, T=,1S, RC=,3, C=,1 W,W,W, ,G,R,R, ,Y,B,Y, ,S,R,R, ,R,S,S, ,S,G,G, W,W,W, ,S,R,R, ,Y,Y,Y, ,Y,S,G, ,B,B,G, ,S,G,G, Y,B,B, ,W,S,B, ,W,W,R, ,Y,R,G, ,S,B,B, ,B,Y,G, N=,34, T=,1R, RC=,1, C=,1 W,W,W, ,R,R,B, ,Y,B,Y, ,R,R,R, ,Y,S,S, ,S,G,G, W,W,W, ,R,R,S, ,Y,Y,Y, ,B,S,G, ,B,B,G, ,S,G,G, W,W,R, ,G,S,W, ,S,Y,Y, ,S,R,G, ,B,B,B, ,B,Y,G, N=,35, T=,1S, RC=,3, C=,1 W,W,W, ,R,R,B, ,Y,B,B, ,R,G,G, ,W,S,G, ,S,G,G, W,W,W, ,R,R,S, ,Y,Y,S, ,R,S,R, ,B,B,G, ,S,G,G, W,W,R, ,Y,Y,Y, ,S,Y,S, ,R,B,S, ,B,B,B, ,Y,Y,G, N=,36, T=,1Y, RC=,1, C=,1 W,W,S, ,R,R,W, ,B,S,S, ,B,S,Y, ,W,S,G, ,R,G,G, W,W,G, ,R,R,W, ,B,Y,Y, ,R,S,R, ,B,B,G, ,S,G,G, W,W,G, ,Y,Y,R, ,Y,Y,S, ,R,B,S, ,B,B,B, ,Y,Y,G, N=,37, T=,1S, RC=,1, C=,1 W,W,S, ,R,R,W, ,B,S,R, ,R,R,B, ,Y,S,R, ,S,G,G, W,W,G, ,R,R,W, ,B,Y,Y, ,B,S,S, ,B,B,G, ,Y,G,G, W,W,G, ,G,S,W, ,Y,Y,Y, ,S,R,Y, ,B,B,B, ,S,Y,G, N=,38, T=,1Y, RC=,3, C=,1 W,W,W, ,R,R,R, ,Y,B,B, ,S,G,G, ,Y,S,R, ,S,G,G, W,W,W, ,R,R,R, ,Y,Y,S, ,B,S,S, ,B,B,G, ,Y,G,G, W,W,W, ,G,S,B, ,Y,Y,R, ,S,R,Y, ,B,B,B, ,S,Y,G, Call FuWeiForTT0====,5-LiTT0FromT10A---- 的调出+(-z,3)+表 3 N=,39, T=,1G, RC=,3, C=,1 R,G,B, ,R,R,R, ,W,W,W, ,S,G,Y, ,Y,S,G, ,G,G,G, W,W,W, ,R,R,R, ,Y,Y,S, ,B,S,B, ,B,B,S, ,G,G,Y, W,W,W, ,G,S,B, ,Y,Y,R, ,S,R,B, ,B,B,Y, ,S,Y,S, N=,40, T=,1S, RC=,1, C=,1 R,G,B, ,R,R,R, ,W,W,B, ,S,B,S, ,S,G,G, ,R,G,G, W,W,W, ,R,R,R, ,Y,Y,S, ,R,S,G, ,B,B,S, ,S,G,Y, W,W,W, ,G,S,Y, ,Y,Y,G, ,B,B,Y, ,B,B,Y, ,W,Y,S, N=,41, T=,1G, RC=,1, C=,1 W,W,B, ,R,R,R, ,S,G,Y, ,S,B,G, ,S,G,R, ,W,S,R, W,W,W, ,R,R,R, ,Y,Y,S, ,R,S,S, ,B,B,G, ,Y,G,G, W,W,W, ,G,S,Y, ,Y,Y,G, ,B,B,Y, ,B,B,B, ,S,Y,G, N=,42, T=,1S, RC=,1, C=,1 W,W,B, ,R,R,R, ,S,G,Y, ,B,R,S, ,S,Y,W, ,G,S,R, W,W,W, ,R,R,R, ,Y,Y,S, ,B,S,B, ,B,B,G, ,S,G,G, W,W,W, ,R,G,S, ,Y,Y,G, ,Y,S,G, ,B,B,B, ,Y,Y,G, N=,43, T=,1Y, RC=,3, C=,1 W,W,R, ,R,R,B, ,Y,Y,S, ,G,S,R, ,S,Y,W, ,B,W,W, W,W,R, ,R,R,R, ,Y,Y,G, ,B,S,B, ,B,B,G, ,S,G,G, W,W,S, ,R,G,S, ,G,S,Y, ,Y,S,G, ,B,B,B, ,Y,Y,G, N=,44, T=,1S, RC=,3, C=,1 W,W,R, ,R,R,B, ,Y,Y,Y, ,R,B,G, ,S,G,R, ,W,W,W, W,W,R, ,R,R,R, ,Y,Y,S, ,S,S,S, ,B,B,G, ,Y,G,G, W,W,S, ,Y,G,S, ,G,S,B, ,G,B,Y, ,B,B,B, ,S,Y,G, N=,45, T=,1Y, RC=,1, C=,1 W,W,W, ,R,R,R, ,Y,S,B, ,B,R,S, ,S,G,R, ,R,B,G, W,W,W, ,R,R,R, ,Y,Y,S, ,S,S,S, ,B,B,G, ,Y,G,G, W,W,W, ,Y,G,S, ,Y,Y,G, ,G,B,Y, ,B,B,B, ,S,Y,G, N=,46, T=,1S, RC=,2, C=,1 W,W,W, ,R,R,R, ,Y,S,S, ,Y,B,G, ,B,S,G, ,Y,B,G, W,W,W, ,R,R,R, ,Y,Y,G, ,S,S,S, ,B,B,G, ,G,G,G, W,W,W, ,R,Y,S, ,Y,Y,R, ,S,R,B, ,B,B,B, ,S,Y,G, N=,47, T=,1B, RC=,3, C=,1 R,W,W, ,S,R,R, ,Y,S,S, ,Y,B,G, ,G,G,B, ,Y,B,G, R,W,W, ,R,R,R, ,Y,Y,G, ,S,S,S, ,S,B,B, ,G,G,G, R,W,W, ,B,Y,S, ,Y,Y,R, ,S,Y,G, ,B,B,B, ,W,W,W, N=,48, T=,1S, RC=,1, C=,1 R,W,W, ,S,R,R, ,Y,S,S, ,S,S,Y, ,W,G,Y, ,R,B,G, R,W,W, ,R,R,R, ,Y,Y,Y, ,Y,S,B, ,S,B,B, ,G,G,G, R,W,W, ,B,G,G, ,Y,Y,B, ,G,S,G, ,B,B,B, ,S,W,W, N=,49, T=,1B, RC=,1, C=,1 S,W,W, ,R,R,R, ,Y,S,S, ,S,S,Y, ,B,S,W, ,R,B,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,Y,S,B, ,B,B,G, ,G,G,G, W,W,W, ,R,G,G, ,Y,Y,B, ,S,R,B, ,B,B,Y, ,G,S,G, N=,50, T=,1S, RC=,1, C=,1 S,W,W, ,R,R,R, ,Y,S,G, ,S,Y,S, ,G,G,R, ,B,B,G, W,W,W, ,R,R,R, ,Y,Y,G, ,R,S,S, ,B,B,G, ,Y,G,G, W,W,W, ,W,S,B, ,Y,Y,R, ,B,B,Y, ,B,B,Y, ,S,S,G, N=,51, T=,1G, RC=,1, C=,1 Y,S,G, ,R,R,R, ,S,S,Y, ,S,Y,R, ,G,G,S, ,S,Y,B, W,W,W, ,R,R,R, ,Y,Y,G, ,R,S,G, ,B,B,W, ,S,G,B, W,W,W, ,W,S,B, ,Y,Y,R, ,B,B,Y, ,B,B,W, ,G,G,G, N=,52, T=,1S, RC=,3, C=,1 Y,S,G, ,R,R,R, ,S,S,G, ,R,G,Y, ,B,S,W, ,S,Y,B, W,W,W, ,R,R,R, ,Y,Y,S, ,Y,S,B, ,B,B,W, ,G,G,B, W,W,W, ,R,G,Y, ,Y,Y,S, ,S,R,B, ,B,B,W, ,G,G,G, N=,53, T=,1G, RC=,3, C=,1 W,W,W, ,R,R,R, ,Y,S,G, ,R,G,S, ,B,S,Y, ,B,B,G, W,W,W, ,R,R,R, ,Y,Y,S, ,Y,S,S, ,B,B,B, ,Y,G,G, W,W,W, ,R,G,Y, ,Y,Y,S, ,S,R,G, ,B,B,B, ,S,G,G, Call FuWeiForT10====,2-LiT10From10TA----(-z,2)+表 6 N=,54, T=,1S, RC=,3, C=,1 W,W,W, ,R,R,R, ,Y,S,S, ,S,S,G, ,Y,G,R, ,Y,B,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,G,S,R, ,B,B,B, ,S,G,G, W,W,W, ,S,S,G, ,Y,Y,B, ,R,Y,S, ,B,B,B, ,B,G,G, N=,55, T=,1Y, RC=,3, C=,1 W,W,R, ,R,R,S, ,Y,Y,Y, ,Y,B,G, ,Y,G,R, ,W,W,W, W,W,R, ,R,R,S, ,Y,Y,S, ,G,S,R, ,B,B,B, ,S,G,G, W,W,G, ,S,S,G, ,B,Y,S, ,R,Y,S, ,B,B,B, ,B,G,G, N=,56, T=,1S, RC=,3, C=,1 W,W,R, ,R,R,S, ,Y,Y,B, ,G,R,S, ,G,S,S, ,R,W,W, W,W,R, ,R,R,S, ,Y,Y,S, ,B,S,Y, ,B,B,B, ,G,G,G, W,W,G, ,S,S,Y, ,B,Y,W, ,Y,G,R, ,B,B,B, ,Y,G,G, N=,57, T=,1Y, RC=,1, C=,1 W,W,R, ,R,R,R, ,B,S,W, ,S,S,Y, ,G,S,S, ,G,R,S, W,W,W, ,R,R,R, ,Y,Y,Y, ,B,S,Y, ,B,B,B, ,G,G,G, W,W,W, ,S,S,G, ,Y,Y,B, ,Y,G,R, ,B,B,B, ,Y,G,G, N=,58, T=,1S, RC=,3, C=,1 W,W,R, ,R,R,R, ,B,S,Y, ,Y,Y,R, ,G,S,S, ,S,R,S, W,W,W, ,R,R,R, ,Y,Y,G, ,S,S,G, ,B,B,B, ,S,G,G, W,W,W, ,B,Y,W, ,Y,Y,G, ,S,B,Y, ,B,B,B, ,G,G,G, N=,59, T=,1G, RC=,3, C=,1 S,B,B, ,R,R,R, ,W,W,R, ,Y,Y,B, ,G,S,R, ,S,G,G, W,W,W, ,R,R,R, ,Y,Y,G, ,S,S,S, ,B,B,G, ,R,G,G, W,W,W, ,B,Y,W, ,Y,Y,G, ,S,B,Y, ,B,B,Y, ,S,S,G, N=,60, T=,1S, RC=,1, C=,1 S,B,B, ,R,R,R, ,W,W,W, ,S,S,Y, ,S,R,S, ,G,G,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,B,S,Y, ,B,B,G, ,G,G,G, W,W,W, ,R,S,G, ,Y,Y,B, ,Y,S,B, ,B,B,Y, ,R,S,G, N=,61, T=,1G, RC=,1, C=,1 W,W,W, ,R,R,R, ,Y,Y,B, ,S,S,S, ,S,R,S, ,R,G,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,B,S,G, ,B,B,B, ,S,G,G, W,W,W, ,R,S,G, ,Y,Y,B, ,Y,S,Y, ,B,B,B, ,G,G,G, 复位第三层开始N=¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥第三层 Call FuWeiForT10====, ----邻边② N=,62, T=,1B, RC=,2, C=,1 Y,W,W, ,G,R,R, ,Y,Y,B, ,S,S,S, ,B,B,B, ,R,G,G, S,W,W, ,G,R,R, ,Y,Y,Y, ,B,S,G, ,B,B,B, ,S,G,G, Y,W,W, ,G,S,G, ,Y,Y,B, ,W,W,W, ,S,R,S, ,R,R,R, N=,63, T=,1W, RC=,1, C=,1 W,W,W, ,S,R,S, ,R,Y,B, ,S,S,S, ,B,B,B, ,R,G,Y, W,W,W, ,G,R,R, ,R,Y,Y, ,B,S,G, ,B,B,B, ,S,G,Y, Y,S,Y, ,G,S,G, ,G,Y,B, ,W,W,W, ,R,G,G, ,R,R,Y, N=,64, T=,1B, RC=,3, C=,1 S,W,W, ,W,R,S, ,R,Y,B, ,S,S,S, ,B,B,G, ,R,G,Y, G,W,W, ,W,R,R, ,R,Y,Y, ,B,S,G, ,B,B,G, ,S,G,Y, G,S,Y, ,W,S,G, ,G,Y,B, ,R,R,Y, ,B,B,R, ,W,W,Y, N=,65, T=,1W, RC=,3, C=,1 G,G,S, ,G,R,R, ,Y,Y,B, ,S,S,S, ,B,B,G, ,R,G,R, S,W,W, ,W,R,R, ,Y,Y,Y, ,B,S,G, ,B,B,G, ,S,G,B, Y,W,W, ,W,S,G, ,Y,Y,B, ,R,R,Y, ,S,R,W, ,W,W,B, N=,66, T=,1B, RC=,3, C=,1 G,G,S, ,R,R,R, ,Y,Y,B, ,S,S,S, ,G,G,W, ,R,G,R, W,W,W, ,R,R,R, ,Y,Y,Y, ,B,S,G, ,B,B,R, ,S,G,B, W,W,W, ,Y,S,G, ,Y,Y,B, ,W,W,B, ,B,B,S, ,G,S,Y, N=,67, T=,1G, RC=,2, C=,1 S,G,B, ,R,R,R, ,W,R,S, ,S,S,G, ,G,G,Y, ,Y,S,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,B,S,G, ,B,B,Y, ,B,G,S, W,W,W, ,Y,S,G, ,Y,Y,B, ,W,W,S, ,B,B,B, ,R,G,R, N=,68, T=,1Y, RC=,3, C=,1 S,G,R, ,R,R,S, ,Y,Y,W, ,Y,S,G, ,G,G,Y, ,B,W,W, W,W,R, ,R,R,S, ,Y,Y,R, ,B,S,G, ,B,B,Y, ,B,G,S, W,W,G, ,Y,S,G, ,B,Y,S, ,W,W,S, ,B,B,B, ,R,G,R, N=,69, T=,1S, RC=,3, C=,1 S,G,R, ,R,R,S, ,Y,Y,R, ,G,G,S, ,G,S,Y, ,Y,W,W, W,W,R, ,R,R,S, ,Y,Y,B, ,S,S,W, ,B,B,Y, ,G,G,S, W,W,G, ,S,R,W, ,B,Y,B, ,Y,B,W, ,B,B,B, ,G,G,R, N=,70, T=,1Y, RC=,1, C=,1 S,G,Y, ,R,R,R, ,R,B,B, ,S,S,W, ,G,S,Y, ,G,G,S, W,W,W, ,R,R,R, ,Y,Y,Y, ,S,S,W, ,B,B,Y, ,G,G,S, W,W,W, ,S,R,G, ,Y,Y,B, ,Y,B,W, ,B,B,B, ,G,G,R, N=,71, T=,1G, RC=,2, C=,1 W,W,W, ,R,R,R, ,Y,Y,B, ,S,S,S, ,G,S,R, ,R,G,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,S,S,G, ,B,B,B, ,S,G,G, W,W,W, ,S,R,G, ,Y,Y,B, ,Y,B,Y, ,B,B,B, ,S,G,G, Call ThreeEdgeijk====, - -----相邻翻转③ N=,72, T=,1G, RC=,1, C=,1 Y,Y,B, ,R,R,R, ,S,G,Y, ,S,S,R, ,G,S,W, ,S,S,R, W,W,W, ,R,R,R, ,Y,Y,Y, ,S,S,B, ,B,B,W, ,G,G,G, W,W,W, ,S,R,G, ,Y,Y,B, ,Y,B,B, ,B,B,W, ,G,G,G, N=,73, T=,1S, RC=,1, C=,1 Y,Y,B, ,R,R,R, ,S,G,G, ,Y,S,S, ,G,G,S, ,B,S,R, W,W,W, ,R,R,R, ,Y,Y,R, ,B,S,S, ,B,B,W, ,Y,G,G, W,W,W, ,W,S,G, ,Y,Y,S, ,B,B,R, ,B,B,W, ,Y,G,G, N=,74, T=,1G, RC=,2, C=,1 S,S,R, ,R,R,R, ,S,W,W, ,Y,S,Y, ,G,G,S, ,G,G,Y, W,W,W, ,R,R,R, ,Y,Y,R, ,B,S,Y, ,B,B,G, ,G,G,Y, W,W,W, ,W,S,G, ,Y,Y,S, ,B,B,B, ,B,B,G, ,R,S,B, N=,75, T=,1W, RC=,1, C=,1 R,W,W, ,G,B,B, ,R,W,W, ,Y,S,Y, ,G,G,S, ,G,G,Y, S,W,W, ,R,R,R, ,R,Y,R, ,B,S,Y, ,B,B,G, ,G,G,Y, S,W,W, ,W,S,G, ,R,Y,S, ,B,B,B, ,B,Y,Y, ,R,S,S, N=,76, T=,1B, RC=,3, C=,1 G,W,W, ,B,B,B, ,R,W,W, ,Y,S,Y, ,S,G,Y, ,G,G,Y, R,W,W, ,B,R,R, ,R,Y,R, ,B,S,Y, ,G,B,Y, ,G,G,Y, W,W,W, ,B,S,G, ,R,Y,S, ,R,S,S, ,G,B,B, ,R,S,S, N=,77, T=,1S, RC=,3, C=,1 G,W,W, ,B,B,B, ,R,W,R, ,Y,Y,S, ,G,S,B, ,Y,G,Y, R,W,W, ,B,R,R, ,R,Y,G, ,S,S,S, ,G,B,Y, ,G,G,Y, W,W,W, ,S,R,W, ,R,Y,G, ,Y,B,R, ,G,B,B, ,S,S,S, N=,78, T=,1B, RC=,1, C=,1 S,W,W, ,G,B,B, ,R,W,R, ,Y,Y,S, ,G,G,G, ,Y,G,Y, S,W,W, ,R,R,R, ,R,Y,G, ,S,S,S, ,B,B,S, ,G,G,Y, S,W,W, ,W,R,W, ,R,Y,G, ,B,B,S, ,B,Y,B, ,Y,B,R, N=,79, T=,1S, RC=,1, C=,1 S,W,W, ,G,B,B, ,R,W,W, ,B,S,Y, ,Y,G,Y, ,G,G,Y, S,W,W, ,R,R,R, ,R,Y,R, ,B,S,Y, ,B,B,S, ,G,G,Y, S,W,W, ,G,G,G, ,R,Y,W, ,S,S,S, ,B,Y,B, ,R,B,R, N=,80, T=,1W, RC=,3, C=,1 S,S,S, ,R,R,R, ,R,W,W, ,B,S,Y, ,Y,G,Y, ,G,G,B, W,W,W, ,R,R,R, ,Y,Y,R, ,B,S,Y, ,B,B,S, ,G,G,Y, W,W,W, ,G,G,G, ,Y,Y,W, ,S,S,S, ,B,B,G, ,R,B,B, N=,81, T=,1G, RC=,2, C=,1 Y,Y,S, ,R,R,R, ,Y,S,G, ,B,S,S, ,Y,G,R, ,B,B,R, W,W,W, ,R,R,R, ,Y,Y,R, ,B,S,S, ,B,B,W, ,Y,G,G, W,W,W, ,G,G,G, ,Y,Y,W, ,S,S,S, ,B,B,W, ,B,G,G, N=,82, T=,1S, RC=,2, C=,1 Y,Y,S, ,R,R,R, ,Y,S,Y, ,S,S,S, ,G,R,W, ,G,B,R, W,W,W, ,R,R,R, ,Y,Y,G, ,S,S,B, ,B,B,W, ,G,G,G, W,W,W, ,B,Y,B, ,Y,Y,R, ,S,S,B, ,B,B,W, ,G,G,G, N=,83, T=,1G, RC=,3, C=,1 W,W,W, ,R,R,R, ,Y,Y,S, ,S,S,Y, ,G,R,S, ,R,G,G, W,W,W, ,R,R,R, ,Y,Y,G, ,S,S,S, ,B,B,B, ,B,G,G, W,W,W, ,B,Y,B, ,Y,Y,R, ,S,S,Y, ,B,B,B, ,G,G,G, N=,84, T=,1S, RC=,1, C=,1 W,W,W, ,R,R,R, ,Y,Y,B, ,S,S,S, ,G,B,R, ,R,G,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,S,S,S, ,B,B,B, ,G,G,G, W,W,W, ,S,R,G, ,Y,Y,B, ,Y,S,Y, ,B,B,B, ,S,G,G, 第三层--------角块开始N=¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥第三层 Call FourCornXYZ====, - --- - ---两两对角 N=,85, T=,1Y, RC=,1, C=,1 W,W,R, ,R,R,W, ,B,Y,B, ,R,R,G, ,G,B,R, ,S,S,S, W,W,G, ,R,R,W, ,Y,Y,Y, ,S,S,S, ,B,B,B, ,G,G,G, W,W,G, ,S,R,W, ,Y,Y,Y, ,Y,S,Y, ,B,B,B, ,S,G,G, N=,86, T=,1B, RC=,3, C=,1 R,W,R, ,Y,R,W, ,B,Y,B, ,R,R,G, ,R,B,B, ,S,S,S, R,W,G, ,S,R,W, ,Y,Y,Y, ,S,S,S, ,B,B,B, ,G,G,G, S,W,G, ,Y,R,W, ,Y,Y,Y, ,S,G,G, ,G,B,B, ,W,W,W, N=,87, T=,1S, RC=,2, C=,1 R,W,R, ,Y,R,W, ,B,Y,R, ,G,G,S, ,B,Y,Y, ,Y,S,S, R,W,G, ,S,R,W, ,Y,Y,B, ,S,S,S, ,B,B,B, ,R,G,G, S,W,G, ,S,G,W, ,Y,Y,B, ,G,R,R, ,G,B,B, ,W,W,W, N=,88, T=,1Y, RC=,3, C=,1 R,W,W, ,Y,R,G, ,Y,Y,B, ,Y,S,S, ,B,Y,Y, ,R,G,G, R,W,W, ,S,R,G, ,Y,Y,Y, ,S,S,S, ,B,B,B, ,R,G,G, S,W,W, ,S,G,S, ,B,B,R, ,G,R,R, ,G,B,B, ,W,W,W, N=,89, T=,1B, RC=,1, C=,1 W,W,W, ,R,R,G, ,Y,Y,B, ,Y,S,S, ,G,B,B, ,R,G,G, W,W,W, ,R,R,G, ,Y,Y,Y, ,S,S,S, ,B,B,Y, ,R,G,G, W,W,W, ,S,G,S, ,B,B,R, ,Y,S,S, ,B,B,Y, ,G,R,R, N=,90, T=,1G, RC=,1, C=,1 Y,Y,B, ,R,R,G, ,S,S,S, ,Y,S,B, ,G,B,W, ,G,R,R, W,W,W, ,R,R,G, ,Y,Y,Y, ,S,S,Y, ,B,B,W, ,R,G,G, W,W,W, ,S,G,S, ,B,B,R, ,Y,S,Y, ,B,B,W, ,R,G,G, N=,91, T=,1R, RC=,3, C=,1 Y,Y,B, ,S,R,R, ,S,S,S, ,B,S,B, ,Y,B,W, ,G,R,R, W,W,W, ,G,R,R, ,Y,Y,Y, ,B,S,Y, ,S,B,W, ,R,G,G, G,B,B, ,S,G,G, ,W,W,W, ,R,S,Y, ,Y,B,W, ,R,G,G, N=,92, T=,1S, RC=,2, C=,1 Y,Y,B, ,S,R,R, ,S,S,Y, ,Y,S,R, ,S,Y,W, ,S,R,R, W,W,W, ,G,R,R, ,Y,Y,B, ,Y,S,B, ,S,B,W, ,G,G,G, G,B,B, ,G,R,R, ,W,W,W, ,B,S,B, ,Y,B,W, ,G,G,G, N=,93, T=,1G, RC=,3, C=,1 W,W,W, ,S,R,R, ,Y,Y,B, ,Y,S,S, ,S,Y,R, ,R,G,G, W,W,W, ,G,R,R, ,Y,Y,B, ,Y,S,S, ,S,B,B, ,R,G,G, G,B,B, ,G,R,R, ,W,W,W, ,B,S,Y, ,Y,B,B, ,S,G,G, N=,94, T=,1R, RC=,1, C=,1 W,W,W, ,R,R,R, ,Y,Y,B, ,S,S,S, ,G,Y,R, ,R,G,G, W,W,W, ,R,R,R, ,Y,Y,B, ,S,S,S, ,B,B,B, ,R,G,G, W,W,W, ,S,G,G, ,Y,Y,B, ,Y,S,Y, ,B,B,B, ,S,G,G, N=,95, T=,1S, RC=,2, C=,1 W,W,W, ,R,R,R, ,Y,Y,G, ,Y,S,Y, ,B,B,B, ,S,G,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,S,S,S, ,B,B,B, ,G,G,G, W,W,W, ,R,R,S, ,Y,Y,R, ,S,S,S, ,B,B,B, ,G,G,G, Call FourCornijk====, - ---逆相邻翻转④ N=,96, T=,1S, RC=,3, C=,1 W,W,W, ,R,R,R, ,Y,Y,G, ,Y,S,S, ,S,R,R, ,B,G,G, W,W,W, ,R,R,R, ,Y,Y,G, ,S,S,S, ,B,B,B, ,B,G,G, W,W,W, ,R,Y,G, ,Y,Y,S, ,Y,S,S, ,B,B,B, ,B,G,G, N=,97, T=,1B, RC=,1, C=,1 B,W,W, ,W,R,R, ,Y,Y,G, ,Y,S,S, ,B,B,S, ,B,G,G, G,W,W, ,W,R,R, ,Y,Y,G, ,S,S,S, ,B,B,R, ,B,G,G, G,W,W, ,W,Y,G, ,Y,Y,S, ,R,R,R, ,B,B,R, ,Y,S,S, N=,98, T=,1R, RC=,1, C=,1 B,W,W, ,R,R,G, ,Y,Y,G, ,B,S,S, ,G,B,S, ,B,G,G, G,W,W, ,R,R,Y, ,Y,Y,G, ,B,S,S, ,W,B,R, ,B,G,G, Y,Y,S, ,W,W,W, ,Y,S,R, ,B,R,R, ,W,B,R, ,Y,S,S, N=,99, T=,1S, RC=,2, C=,1 B,W,W, ,R,R,G, ,Y,Y,G, ,R,R,B, ,G,G,R, ,W,G,G, G,W,W, ,R,R,Y, ,Y,Y,B, ,S,S,B, ,W,B,R, ,W,G,G, Y,Y,S, ,B,B,Y, ,Y,S,S, ,S,S,B, ,W,B,R, ,W,S,S, N=,100, T=,1R, RC=,3, C=,1 B,W,W, ,B,R,R, ,Y,Y,G, ,Y,R,B, ,R,G,R, ,W,G,G, G,W,W, ,B,R,R, ,Y,Y,B, ,S,S,B, ,S,B,R, ,W,G,G, G,W,W, ,Y,Y,G, ,Y,Y,S, ,S,S,B, ,S,B,R, ,W,S,S, N=,101, T=,1S, RC=,1, C=,1 B,W,W, ,B,R,R, ,Y,Y,G, ,S,S,Y, ,W,W,W, ,S,G,G, G,W,W, ,B,R,R, ,Y,Y,Y, ,S,S,R, ,S,B,R, ,B,G,G, G,W,W, ,R,G,R, ,Y,Y,Y, ,B,B,B, ,S,B,R, ,G,S,S, N=,102, T=,1Y, RC=,3, C=,1 B,W,R, ,B,R,S, ,Y,Y,Y, ,S,G,G, ,W,W,W, ,W,W,W, G,W,R, ,B,R,S, ,Y,Y,Y, ,S,S,R, ,S,B,R, ,B,G,G, G,W,R, ,R,G,Y, ,Y,Y,G, ,B,B,B, ,S,B,R, ,G,S,S, N=,103, T=,1S, RC=,3, C=,1 B,W,R, ,B,R,S, ,Y,Y,G, ,G,R,B, ,Y,G,R, ,W,W,W, G,W,R, ,B,R,S, ,Y,Y,B, ,G,S,B, ,S,B,R, ,W,G,G, G,W,R, ,G,Y,Y, ,Y,Y,W, ,S,S,B, ,S,B,R, ,W,S,S, N=,104, T=,1R, RC=,1, C=,1 B,W,R, ,S,S,Y, ,Y,Y,G, ,Y,R,B, ,G,G,R, ,W,W,W, G,W,R, ,R,R,Y, ,Y,Y,B, ,S,S,B, ,W,B,R, ,W,G,G, Y,Y,W, ,B,B,G, ,G,G,S, ,S,S,B, ,R,B,R, ,W,S,S, N=,105, T=,1S, RC=,2, C=,1 B,W,R, ,S,S,Y, ,Y,Y,G, ,B,S,S, ,G,B,S, ,B,W,W, G,W,R, ,R,R,Y, ,Y,Y,G, ,B,S,S, ,W,B,R, ,B,G,G, Y,Y,W, ,W,W,W, ,G,G,R, ,B,R,Y, ,R,B,R, ,G,S,S, N=,106, T=,1R, RC=,3, C=,1 B,W,R, ,W,R,S, ,Y,Y,G, ,G,S,S, ,B,B,S, ,B,W,W, G,W,R, ,W,R,S, ,Y,Y,G, ,G,S,S, ,B,B,R, ,B,G,G, G,W,R, ,W,Y,Y, ,Y,Y,W, ,R,R,Y, ,B,B,R, ,G,S,S, N=,107, T=,1B, RC=,3, C=,1 W,W,R, ,R,R,S, ,Y,Y,G, ,G,S,S, ,S,R,R, ,B,W,W, W,W,R, ,R,R,S, ,Y,Y,G, ,G,S,S, ,B,B,B, ,B,G,G, W,W,R, ,Y,Y,Y, ,Y,Y,W, ,G,S,S, ,B,B,B, ,B,G,G, N=,108, T=,1S, RC=,1, C=,1 W,W,R, ,R,R,S, ,Y,Y,Y, ,G,G,G, ,B,B,B, ,W,W,W, W,W,R, ,R,R,S, ,Y,Y,Y, ,S,S,S, ,B,B,B, ,G,G,G, W,W,R, ,R,R,S, ,Y,Y,Y, ,S,S,S, ,B,B,B, ,G,G,G, N=,109, T=,1Y, RC=,1, C=,1 W,W,W, ,R,R,R, ,Y,Y,Y, ,S,S,S, ,B,B,B, ,G,G,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,S,S,S, ,B,B,B, ,G,G,G, W,W,W, ,R,R,R, ,Y,Y,Y, ,S,S,S, ,B,B,B, ,G,G,G, 开始time=,10:32:03 结束time=,10:32:03
个人分类: 视频专栏:《魔方和数学建模》|5989 次阅读|6 个评论
Let’s Go : 围棋的诱惑与智力的边界
热度 14 王飞跃 2016-3-9 12:03
Let’s Go : 围棋的诱惑与智力的边界 王飞跃 所谓的“人机世纪大战”,谷歌的 AlphaGo 与南韩李世石的对决即将上演,这不但让我想起差不多 20 年前 IBM “深蓝”与卡斯帕罗夫的国际象棋比赛,也被许多人称为是“人机世纪大战”,计算机终于胜了,但对人工智能的研究至今几乎没有产生什么的影响;还让我想起人工智能创始人之一,得过诺贝尔奖的司马贺 (Herbert Simon) 在人工智能开始之初就曾预言的:到 1986 年,人工智能将在所有的棋游戏上战胜人类,而且全面战胜男人,无法战胜女人是因为人工智能不能生产下一代 ( 大意如此,或许是 Minsky 或别人讲的,其实人工智能生产下一代比女人筒单容易的多了!不信可读一下 von Neumann 的论文 ) 。 我现在非常希望 AlphaGo 能战胜李世石,这与几天前的想法很不一样。因与国际象棋不同,中国围棋的机器化必须依靠人工智能方法。当下的人工智能之火太盛,接下来难以继续。如果 AlphaGo 赢了,不但能延人工智能之火,而且万一智能产业发展不顺,就可成为许多人许多事的“替罪羊”。不过,无论这场人机“世纪”大赛结果如何,谷歌都赢了。这次的市场营销宣传,谷歌做的极其漂亮,必将成为新 IT 时代智能广告的“世纪”典范。或许,将来计算机围棋比赛会成为所有人工智能公司的“标准广告赛”。 围棋的诱惑 围棋是对立统一的结晶! 黑与白、浅与深、易与难,简单与复杂,全在 19 × 19 的 361 个方圆天地之间。非常后悔自己年轻时没有花时间学习围棋,尽管同学中有许多围棋高手,包括当年中科院研究生围棋比赛的冠军,可当时一想一盘棋至少半天时间,又有许多更 要紧 的事要做,只好作罢。 上世纪九十年代初,我与 Terry Triffet 和 Herbert Green 两位老先生合作进行大脑的计算建模研究时, Green 教授曾鼓动我与他一起做人工智能围棋。 Green 是量子物理学大家 Born 的学生,就是著名的 BBGKY Hierarchy 中的 G ,后来去了澳大利亚做教授。他有许多爱好,我最了解的有两样,爬山 hiking 和下围棋。他说他围棋下的很好,告我日本人因为怕围棋输给外国人丢脸,比赛前硬给他安一个“名誉”日本公民,然后再比。为了找人下棋, Green 自己在澳大利亚成立了围棋俱乐部,开始就设在自己家里。 Green 在 UA 访问期间,开始拉我一起参与他用量子力学研究大脑的工作,我说不懂不参加;后找我用 AI 方法写围棋程序, Green 给我看他写的人工智能围棋论文,我说不会也没理,想起来真对不起老人家的热心。 IBM 的“深蓝”战胜卡斯帕罗夫之后,我一直希望中国能开发出计算机围棋程序战胜人类的棋手,除了有感围棋源于中国却成于日本之外,还因为围棋才能真正体现人工智能的灵性,而不单单是计算硬件的威力。去年吴韧离开百度后,我们曾在硅谷计划合作举办围棋的人机大赛,我起的名字就叫 Let ’ s Go ,就是想加快人工智能围棋的研发与实践,让围棋在中国人手里输给计算机。这一想法还得到了围棋爱好者,中国自动化学会理事长郑南宁院士的支持,所以我希望由自动化学会出面组织。可惜后来吴韧创业成立“异构智能”公司,加上其他原因,此事只好放下。 当时我自己的心愿是利用平行的方法开发人工智能围棋系统,验证平行智能的理念。昨天闻听吴韧的异构智能将开发“异构神机”围棋程序,非常高兴,即告知我也会尽快组织“平行围棋”队伍,参与将来的相关活动。 智力的边界 《自然》杂志发表 AlphaGo 文章的方式,加上同时宣布本次大赛的安排,最初都引起自己本能性的反感,一是觉得这是学术圣地的堕落,二是不愿相信计算机围棋能在如此短的时间取得如此大的进步。春节期间,下载相关论文学习了几遍,虽然仍然不知 AlphaGo 的细节,也不认为其在人工智能方法上有什么突破,但看法却大大改变。利用深度神经网络建立对局势的评估函数,这是 Facebook 的 Darkforest 等系统没有的,也使得很大程度上 “瞎蒙”的蒙特卡洛搜索树方法从开环的方式转入闭环的、利用价值函数进行优化的形式,这与自适应动态规划 ADP 方法几乎完全一致!特别让我感兴趣的是 Self Play 的应用, 3000 万局的数据!这也正是自己想通过软件定义的对决产生人工数据进行优化的平行围棋的思路,我相信这一方向仍有很大的开拓空间。因为机器学习基础理论表明,能学习多少,水平如何,受限于样本空间。 Self Play 产生巨大数量没有问题,问题是在什么空间?空间的突破,能否完全离开人的干预,这些论文没有说清楚,但结果似乎很好。不过,《自然》文章中的人机对决,第一局人输二个半子之后,后面四局都是放弃,很难令人信服。虽然机理至今不清,可深度网络已在许多方面证实了自己的威力。人机的这次围棋大赛,理论上结果似乎只应是 5 : 0 ,至于人胜还是机赢,五天之后便见分晓。 但我还是坚持这与时下热议的人工智能战胜人类智能无半毛钱的关系。任何规则明确的问题或任务都应该是计算机战胜人类,早晚只是时间而已,围棋不应例外。我还坚信既然人的理性是有限的,智力也一定有限,对于机器更是如此,因此不存在什么“奇点”问题。实际上,如果你相信科学,就一定有限,因为整个宇宙的生命都是有限的。“奇点”之奇,怕是在有限生命和空间之外,问题是那里什么点都可以有。 Let’s Go 西方许多人士,包括人工智能的专业精英,都对 AlphaGo 有着极高的评价和期望,认为这是人工智能的里程碑事件和 Human Level 人工智能的开始。对此我有不同的看法和观点。这里没有时间展开,但有一点可在此表明。 这次比赛结果非常重要,但其意义不是对 Human Level 人工智能的研究,而是针对搜索和优化问题的处理。如果 AlphaGo 大胜李世石,将大大提高人们对深度网络 DNN 的信心,实际上为优化中的 NP-hard 问题提供了一个现实的解决方案 ! 整个系统,整个工厂,甚至整个城市的决策优化问题都可以利用 AlphaGo 的思路去解决,这就是其最大的贡献。 这将产生一个巨大的新行业,软件定义的系统、工厂、城市将成为现实,大数据真正成了原料,数字化的经验、案例、预演都将成为生产力,计算实验与计算优化将成为管理的“新常态”,或许这就是新 IT 时代的真正开始?若真如此,我更希望是平行的 ADP 成为这趋势的开路先锋! 比赛就要开始, Let’s Go ,先观大战,有话后说!
14590 次阅读|14 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-6-6 07:18

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部