易搜题 > “棋类游戏”标签

棋类游戏

人工智能历史上第一个战胜人类的棋类游戏是()

A、中国象棋

B、国际象棋

C、围棋

D、五子棋

查看答案

围棋是两位对弈者之间战略性的棋盘游戏(boardgame)。围棋已有3000多年的历史,可以说是所有古代棋类游戏的起源。围棋的规则很简单,但是有数不尽的策略。这就是围棋的魅力所在。下一盘围棋的时间短至15分钟,长至数天。但是多数情况下,下一盘围棋需要一或两个小时。围棋是综合科学、艺术和竞赛的游戏。围棋对于智力发展、性格培养和灵活的策略学习非常有益。难怪围棋已经流行了几千年,并逐渐成为一项国际文化游戏。

查看答案

阅读材料,按要求作文。
我们似终生都受格子的限制,从启蒙时代的方格写字簿到“造房子”游戏用粉笔在地上划出的框架乃至各种棋类游戏的盘格,直到成人后办公的格位……,都默默暗示着我们要小心翼翼不要出格,否则就是挑战了游戏规则,最终可能会被飞出局。
我们身边有千千万万,大大小小的格,只要越出了规范就是出格了。
请以“出格”为题,写一篇不少于800字的文章。
要求:①角度自选;②立意自定;③除诗歌外,文体自选。

查看答案
下列各句中加横线词语的使用,全都正确的一项是①诚实守信、一言九鼎历来是中国人的传统美德,是公民道德规范的基本要求,也是现代社会文明的基石和标志。②为纪念中国话剧百年诞辰,话剧界一些前辈粉墨登场,重新排演了《雷雨》等经典篇目。③围棋等棋类游戏能很好地培养人的统筹意识和战略眼光,因为如果目无全牛,就很可能因顾此失彼而落败。④随着孙杨、宁泽涛等人的强势崛起,中国男子游泳项目的实力和过去相比,已经不可同日而语。⑤唐太宗李世民尽心国事,宵衣旰食,励精图治,重视吸取隋朝灭亡的教训,减轻赋税,发展生产,于是有了被史家称道的“贞观之治”。⑥现在少数媒体放着有重要新闻价值的素材不去挖掘,反倒抓住某些明星的一些逸闻笔走龙蛇,这种做法真是令人费解。A:①③⑤
B:②④⑥
C:②④⑤
D:①③⑥
查看答案
下列各句中,划线的成语使用全都正确的一项是①有企业家坦言,进行公益捐助的一个原因是担心消费者指责自己冷漠吝啬,细大不捐,从而影响公司产品的销路。②李鸿章主张大清国参与世界商品经济往来,利用双边贸易富强自己,制约别人,这样的认识在当时可谓空谷足音。③今年“两会”上一些代表委员的发言少了穿靴戴帽的套话,多了实实在在的内容,赢得了社会各界的好评。④李警官深谙犯罪心理学,总能站在犯罪嫌疑人的角度推心置腹地剖析作案动机及过程,侦破了很多棘手的案件。⑤《社会契约论》是法国思想家卢梭的代表作,书中对政治权利和义务等问题作了很多鞭辟入里的分析,值得一读再读。⑥围棋等棋类游戏能很好地培养人的统筹意识和战略眼光,因为如果目无全牛,就很可能因顾此失彼而落败。A:①④⑥
B:②③⑤
C:①②⑤
D:③④⑥
查看答案
下列各句中加横线成语的使用,全部正确的一项是①有企业家坦言,进行公益捐助的一个原因是担心消费者指责自己冷漠吝啬,细大不捐,从而影响公司产品的销路。②李鸿章主张大清国参与世界商品经济往来,利用双边贸易富强自己,制约别人,这样的认识在当时可谓空谷足音。③今年“两会”上一些代表委员的发言少了穿靴戴帽的套话,多了实实在在的内容,赢得了社会各界的好评。④李警官深谙犯罪心理学,总能站在犯罪嫌疑人的角度推心置腹地剖析作案动机及过程,侦破了很多棘手的案件。⑤《社会契约论》是法国思想家卢梭的代表作,书中对政治权利和义务等问题作了很多鞭辟入里的分析,值得一读再读。⑥围棋等棋类游戏能很好地培养人的统筹意识和战略眼光,因为如果目无全牛,就很可能因顾此失彼而落败。A:①④⑥
B:②③⑤
C:①②⑤
D:③④⑥
查看答案
下列各句中划线成语的使用,全部正确的一项是()①有企业家坦言,进行公益捐助的一个原因是担心消费者指责自己冷漠吝啬,细大不捐,从而影响公司产品的销路。②李鸿章主张大清国参与世界商品经济往来,利用双边贸易富强自己,制约别人,这样的认识在当时可谓空谷足音。③今年“两会”上一些代表委员的发言少了穿靴戴帽的套话,多了实实在在的内容,赢得了社会各界的好评。④李警官深谙犯罪心理学,总能站在犯罪嫌疑人的角度推心置腹地剖析作案动机及过程,侦破了很多棘手的案件。⑤《社会契约论》是法国思想家卢梭的代表作,书中对政治权利和义务等问题作了很多鞭辟入里的分析,值得一读再读。⑥围棋等棋类游戏能很好地培养人的统筹意识和战略眼光,因为如果目无全牛,就很可能因顾此失彼而落败。A:①④⑥
B:②③⑤
C:①②⑤
D:③④⑥
查看答案
下列各句中加点成语的使用,全都正确的一项是()①围棋等棋类游戏能很好地培养人的统筹意识和战略眼光,如果目无全牛,就很可能因顾此失彼而落败。②识才爱才和选人用人是领导人的基本功,也是体现领导者水平高低的标尺。作为一名领导者,当有“周公吐哺”的重才之情。③当前医患关系的紧张程度,从一项数据就可以“一叶知秋”。《西安晚报》报道,“仅10%的患者信任医生”,这引起不少代表委员的关注。④在静安区某停车场内,上万辆共享单车因违规停放被统一集运到这里。各色各样,密密麻麻,野生藤蔓随意缭绕,从空中俯瞰蔚为壮观。⑤一些直播平台,以猎奇低俗内容取悦观众、吸引眼球。从长远看,这无疑是一种饮鸩止渴的错误行径,对于整个行业的健康发展无益。⑥昨天偶遇睽违多年的老同学,长期分别,短暂相聚,我们却没有拘谨不适,反而一见如故,相谈甚欢,忆起彼时的人事物情,不觉失笑。A:①④⑥
B:②③⑤
C:①②⑤
D:③④⑥
查看答案
下列各句中加点词语的使用,全都正确的一项是(  )①广交会为企业提供了内外贸对接的契机,但这种对接不可能一挥而就,绝大多数出口企业由于不熟悉国内市场,即使有意内销也无从着手。②围棋等棋类游戏能很好地培养人的统筹意识和战略眼光,因为如果目无全牛,就很可能因顾此失彼而落败。③世界闻名的记者、卓有成就的翻译家、作家萧乾先生早在上世纪30年代初就因长篇小说《梦之谷》而名噪一时。④《社会契约论》是法国思想家卢梭的代表作,书中对政治权利和义务等问题作了很多鞭辟入里的分析,值得一读再读。⑤李警官深谙犯罪心理学,总能站在犯罪嫌疑人的角度推心置腹地剖析作案动机及过程,侦破了很多棘手的案件。⑥学校设定教学课程及其内容,要做到有的放矢,防止学生出现因学习内容过多而造成囫囵吞枣、一知半解等现象。A:①②③
B:②④⑤
C:③⑤⑥
D:③④⑥
查看答案
下列各句中加点成语的使用,全部正确的一项是()①别里科夫凭他那种唉声叹气,他那种踌躇满志,和他那苍白的小脸上的眼镜,降服了我们,我们只好让步。②中国女排在里约马拉卡纳体育馆以3:2逆转东道主巴西女排,挺进里约奥运会女排半决赛,上万多名主场观众发出了震耳欲聋的助威声。③今年“两会”上一些代表委员的发言少了穿靴戴帽的套话,多了实实在在的内容,赢得了社会各界的好评。④1992年11月17日这个冬天的早晨,路遥那双一生紧握着陕北的大手松开了,一个想要诉说的声音归于缄默,一个苍劲的手势在半空中戛然而止。⑤历经人生的坎坷之后,塞万提斯晚年蜗居在一个下等公寓进行《堂吉诃德》的创作,作品问世后立即引起轰动,但时人并不理解作者的苦心孤诣,只当它是不登大雅之堂的“逗笑”之作。⑥围棋、国际象棋等棋类游戏能很好地培养人的统筹意识和战略眼光,因为如果目无全牛,就很可能因顾此失彼而落败。A:①④⑥
B:②③⑤
C:①②⑤
D:③④⑥
查看答案
[材料题](不定项选择题2分)在该Word文档中,用鼠标选定一个矩形区域的文字时,需要按住(  )键。Word操作题(共3小题,共6分),阅读材料回答下面的题目:对下面文字请按题目要求作答:(地雷战)是一款典型的战棋类游戏,战斗采用回合制。游戏的进程由两个大的组成部分组成,即战斗关和休息关。休息关里接受新的战斗任务并进行其他准备工作,其中最重要的事情就是制造地雷。(地雷战)中一共设计了十种地雷,有杀伤敌人体力(相当于生命)的土雷、石雷、铁雷、彻地雷、轰天雷;还有消耗敌人的斗志、攻击力、防御力的伪装雷、蝎子雷、风火雷等。每种地雷又有四种不同的属性。不同品种不同属性的地雷在制造时材料的配方是各不相同的,如何利用现有的有限资金制造出需要的地雷种类,玩家还需费些周折。战斗中,对地雷的使用状况直接影响战斗的成败,敌人可能不会踏上地雷,可能会派工兵排除你辛辛苦苦埋下的地雷,甚至会逼迫老百姓在前面踩雷开道……不过,当玩家具有足够的技术能够制造各种地雷并熟悉它们的性能后,地雷将变成一种克敌制胜的法宝:可连环引爆、可定时引爆、可遥控引爆、甚至可以牺牲自己强制引爆,给敌人以沉重打击。(不定项选择题2分)为本段文字设置红色的边框,具体操作为(  )。
查看答案
1997年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016年,谷歌人工智能AlphaGo又战胜了韩国棋手李世石。这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的DeepMind团队比预期提前了整整10年达到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单,它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个19x19的正方形棋盘中,落下的棋子就不能再移动了,只会在被对方棋子包围时被提走,到了棋局结束时,占据棋盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能下法也非常多。以国际象棋作对比,国际象棋每一步平均约有35种不同的可能走法,一般情况下,多数棋局会在80步之内结束。围棋棋盘共有361个落子点,双方交替落子,整个棋局的总排列组合数共有约10701种可能性,这远远超过了宇宙中的原子总数——10^{80}!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上来讲目前不可能做到。
“蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有100个苹果,每次闭着眼拿出1个,最终要挑出最大的1个。于是先随机拿1个,再随机拿1个跟它比,留下大的,再随机拿1个……每拿一次,留下的苹果都至少不比上次的小。拿的次数越多,挑出的苹果就越大。但除非拿100次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的搜索树还是太大了。
AlphaGo人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo借助两个深度卷积神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆叠在一起,用于生成图片逐渐抽象的、局部的特征。对图像分析得越细,利用的神经网络层就越多。AlphaGo 也采取了类似的架构,将围棋棋盘上的盘面视为19×19的图片输入,然后通过卷积层来表征盘面。这样,两个深度卷积神经网络中的价值网络用于评估盘面,策略网络用于采样动作。
在深度学习的第一阶段——策略网络的有监督学习(即从______I____中学习)阶段,拥有13层神经网络的AlphaGo借助围棋数据库KGS中存储的3000万份对弈棋谱进行初步学习。这3000万份棋谱样本可以用a、b进行统计。a是一个二维棋局,把a输入到一个卷积神经网络进行分类,分类的目标就是落子向量A。通过不断的训练,尽可能让计算机得到的向量A接近人类高手的落子结果b,这样就形成了一个模拟人类下围棋的神经网络,然后得出一个下棋函数F go()。当盘面走到任何一种情形的时候,AlphaGo都可以通过调用函数F go()计算的结果来得到最佳的落子结果b可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段——策略网络的强化学习(即从____II______ 中学习)阶段,AlphaGo开始结合蒙特卡罗树搜索,不再机械地调用函数库,而类似于一种人类进化的过程:AlphaGo会和自己的老版本对弈。即,先使用F_go(1)和F_go(1)对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的F_go(2),再使用F_go(2)和F_go(1)对弈,以此类推,这样就可以得到胜率更高的F_go(n)。这样,AlphaGo就可以不断改善它在第一阶段学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo可以根据之前获得的学习经验得出估值函数v(s),用于预测策略网络自我对抗时棋盘盘面s的结果。最后,则是将F_go()、v(s)以及蒙特卡罗树搜索三者相互配合,使用F_go()作为初始分开局,每局选择分数最高的方案落子,同时调用v(s)在比赛中做出正确的判断。
这就是AlphaGo给围棋带来的新搜索算法。它创新性地将蒙特卡罗模拟和价值网络、策略网络结合起来训练深度神经网络。这样价值网络和策略网络相当于AlphaGo的两个大脑,策略网络负责在当前局面下判断“最好的”下一步,可以理解为落子选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估器。通过两个“大脑”各自选择的平均值,AlphaGo最终决定怎样落子胜算最大。通过这种搜索算法,AlphaGo和其他围棋程序比赛的胜率达到了99.8%。
AlphaGo的飞快成长是任何一个围棋世界冠军都无法企及的。随着计算机性能的不断增强,遍历蒙特卡罗搜索树将进一步提高命中概率。大量的计算机专家,配合大量的世界围棋高手,在算法上不断革新,再配合不断成长的超级计算能力,不断地从失败走向成功,最终打造出围棋人工智能。在AlphaGo击败李世石后,欧洲围棋冠军樊麾说了这么一句话:“这是一个团队的集体智慧用科技的方式战胜了人类数千年的经验积累。”人和机器其实没有站在对立面上,“是人类战胜了人类”。
根据文章,回答下列问题:
结构简单的棋类游戏可以通过对博弈树的“暴力”穷举搜索找出最优走法。
查看答案
1997年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016年,谷歌人工智能AlphaGo又战胜了韩国棋手李世石。这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的DeepMind团队比预期提前了整整10年达到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单,它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个19x19的正方形棋盘中,落下的棋子就不能再移动了,只会在被对方棋子包围时被提走,到了棋局结束时,占据棋盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能下法也非常多。以国际象棋作对比,国际象棋每一步平均约有35种不同的可能走法,一般情况下,多数棋局会在80步之内结束。围棋棋盘共有361个落子点,双方交替落子,整个棋局的总排列组合数共有约10701种可能性,这远远超过了宇宙中的原子总数——10^{80}!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上来讲目前不可能做到。
“蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有100个苹果,每次闭着眼拿出1个,最终要挑出最大的1个。于是先随机拿1个,再随机拿1个跟它比,留下大的,再随机拿1个……每拿一次,留下的苹果都至少不比上次的小。拿的次数越多,挑出的苹果就越大。但除非拿100次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的搜索树还是太大了。
AlphaGo人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo借助两个深度卷积神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆叠在一起,用于生成图片逐渐抽象的、局部的特征。对图像分析得越细,利用的神经网络层就越多。AlphaGo 也采取了类似的架构,将围棋棋盘上的盘面视为19×19的图片输入,然后通过卷积层来表征盘面。这样,两个深度卷积神经网络中的价值网络用于评估盘面,策略网络用于采样动作。
在深度学习的第一阶段——策略网络的有监督学习(即从______I____中学习)阶段,拥有13层神经网络的AlphaGo借助围棋数据库KGS中存储的3000万份对弈棋谱进行初步学习。这3000万份棋谱样本可以用a、b进行统计。a是一个二维棋局,把a输入到一个卷积神经网络进行分类,分类的目标就是落子向量A。通过不断的训练,尽可能让计算机得到的向量A接近人类高手的落子结果b,这样就形成了一个模拟人类下围棋的神经网络,然后得出一个下棋函数F go()。当盘面走到任何一种情形的时候,AlphaGo都可以通过调用函数F go()计算的结果来得到最佳的落子结果b可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段——策略网络的强化学习(即从____II______ 中学习)阶段,AlphaGo开始结合蒙特卡罗树搜索,不再机械地调用函数库,而类似于一种人类进化的过程:AlphaGo会和自己的老版本对弈。即,先使用F_go(1)和F_go(1)对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的F_go(2),再使用F_go(2)和F_go(1)对弈,以此类推,这样就可以得到胜率更高的F_go(n)。这样,AlphaGo就可以不断改善它在第一阶段学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo可以根据之前获得的学习经验得出估值函数v(s),用于预测策略网络自我对抗时棋盘盘面s的结果。最后,则是将F_go()、v(s)以及蒙特卡罗树搜索三者相互配合,使用F_go()作为初始分开局,每局选择分数最高的方案落子,同时调用v(s)在比赛中做出正确的判断。
这就是AlphaGo给围棋带来的新搜索算法。它创新性地将蒙特卡罗模拟和价值网络、策略网络结合起来训练深度神经网络。这样价值网络和策略网络相当于AlphaGo的两个大脑,策略网络负责在当前局面下判断“最好的”下一步,可以理解为落子选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估器。通过两个“大脑”各自选择的平均值,AlphaGo最终决定怎样落子胜算最大。通过这种搜索算法,AlphaGo和其他围棋程序比赛的胜率达到了99.8%。
AlphaGo的飞快成长是任何一个围棋世界冠军都无法企及的。随着计算机性能的不断增强,遍历蒙特卡罗搜索树将进一步提高命中概率。大量的计算机专家,配合大量的世界围棋高手,在算法上不断革新,再配合不断成长的超级计算能力,不断地从失败走向成功,最终打造出围棋人工智能。在AlphaGo击败李世石后,欧洲围棋冠军樊麾说了这么一句话:“这是一个团队的集体智慧用科技的方式战胜了人类数千年的经验积累。”人和机器其实没有站在对立面上,“是人类战胜了人类”。
根据文章,回答下列问题:
国际象棋的走法不超过35×80种。
查看答案
1997年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016年,谷歌人工智能AlphaGo又战胜了韩国棋手李世石。这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的DeepMind团队比预期提前了整整10年达到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单,它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个19x19的正方形棋盘中,落下的棋子就不能再移动了,只会在被对方棋子包围时被提走,到了棋局结束时,占据棋盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能下法也非常多。以国际象棋作对比,国际象棋每一步平均约有35种不同的可能走法,一般情况下,多数棋局会在80步之内结束。围棋棋盘共有361个落子点,双方交替落子,整个棋局的总排列组合数共有约10701种可能性,这远远超过了宇宙中的原子总数——10^{80}!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上来讲目前不可能做到。
“蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有100个苹果,每次闭着眼拿出1个,最终要挑出最大的1个。于是先随机拿1个,再随机拿1个跟它比,留下大的,再随机拿1个……每拿一次,留下的苹果都至少不比上次的小。拿的次数越多,挑出的苹果就越大。但除非拿100次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的搜索树还是太大了。
AlphaGo人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo借助两个深度卷积神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆叠在一起,用于生成图片逐渐抽象的、局部的特征。对图像分析得越细,利用的神经网络层就越多。AlphaGo 也采取了类似的架构,将围棋棋盘上的盘面视为19×19的图片输入,然后通过卷积层来表征盘面。这样,两个深度卷积神经网络中的价值网络用于评估盘面,策略网络用于采样动作。
在深度学习的第一阶段——策略网络的有监督学习(即从______I____中学习)阶段,拥有13层神经网络的AlphaGo借助围棋数据库KGS中存储的3000万份对弈棋谱进行初步学习。这3000万份棋谱样本可以用a、b进行统计。a是一个二维棋局,把a输入到一个卷积神经网络进行分类,分类的目标就是落子向量A。通过不断的训练,尽可能让计算机得到的向量A接近人类高手的落子结果b,这样就形成了一个模拟人类下围棋的神经网络,然后得出一个下棋函数F go()。当盘面走到任何一种情形的时候,AlphaGo都可以通过调用函数F go()计算的结果来得到最佳的落子结果b可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段——策略网络的强化学习(即从____II______ 中学习)阶段,AlphaGo开始结合蒙特卡罗树搜索,不再机械地调用函数库,而类似于一种人类进化的过程:AlphaGo会和自己的老版本对弈。即,先使用F_go(1)和F_go(1)对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的F_go(2),再使用F_go(2)和F_go(1)对弈,以此类推,这样就可以得到胜率更高的F_go(n)。这样,AlphaGo就可以不断改善它在第一阶段学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo可以根据之前获得的学习经验得出估值函数v(s),用于预测策略网络自我对抗时棋盘盘面s的结果。最后,则是将F_go()、v(s)以及蒙特卡罗树搜索三者相互配合,使用F_go()作为初始分开局,每局选择分数最高的方案落子,同时调用v(s)在比赛中做出正确的判断。
这就是AlphaGo给围棋带来的新搜索算法。它创新性地将蒙特卡罗模拟和价值网络、策略网络结合起来训练深度神经网络。这样价值网络和策略网络相当于AlphaGo的两个大脑,策略网络负责在当前局面下判断“最好的”下一步,可以理解为落子选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估器。通过两个“大脑”各自选择的平均值,AlphaGo最终决定怎样落子胜算最大。通过这种搜索算法,AlphaGo和其他围棋程序比赛的胜率达到了99.8%。
AlphaGo的飞快成长是任何一个围棋世界冠军都无法企及的。随着计算机性能的不断增强,遍历蒙特卡罗搜索树将进一步提高命中概率。大量的计算机专家,配合大量的世界围棋高手,在算法上不断革新,再配合不断成长的超级计算能力,不断地从失败走向成功,最终打造出围棋人工智能。在AlphaGo击败李世石后,欧洲围棋冠军樊麾说了这么一句话:“这是一个团队的集体智慧用科技的方式战胜了人类数千年的经验积累。”人和机器其实没有站在对立面上,“是人类战胜了人类”。
根据文章,回答下列问题:
函数F go(n)比F go(n-1)的胜率更高。
查看答案
1997年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016年,谷歌人工智能AlphaGo又战胜了韩国棋手李世石。这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的DeepMind团队比预期提前了整整10年达到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单,它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个19x19的正方形棋盘中,落下的棋子就不能再移动了,只会在被对方棋子包围时被提走,到了棋局结束时,占据棋盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能下法也非常多。以国际象棋作对比,国际象棋每一步平均约有35种不同的可能走法,一般情况下,多数棋局会在80步之内结束。围棋棋盘共有361个落子点,双方交替落子,整个棋局的总排列组合数共有约10701种可能性,这远远超过了宇宙中的原子总数——10^{80}!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上来讲目前不可能做到。
“蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有100个苹果,每次闭着眼拿出1个,最终要挑出最大的1个。于是先随机拿1个,再随机拿1个跟它比,留下大的,再随机拿1个……每拿一次,留下的苹果都至少不比上次的小。拿的次数越多,挑出的苹果就越大。但除非拿100次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的搜索树还是太大了。
AlphaGo人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo借助两个深度卷积神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆叠在一起,用于生成图片逐渐抽象的、局部的特征。对图像分析得越细,利用的神经网络层就越多。AlphaGo 也采取了类似的架构,将围棋棋盘上的盘面视为19×19的图片输入,然后通过卷积层来表征盘面。这样,两个深度卷积神经网络中的价值网络用于评估盘面,策略网络用于采样动作。
在深度学习的第一阶段——策略网络的有监督学习(即从______I____中学习)阶段,拥有13层神经网络的AlphaGo借助围棋数据库KGS中存储的3000万份对弈棋谱进行初步学习。这3000万份棋谱样本可以用a、b进行统计。a是一个二维棋局,把a输入到一个卷积神经网络进行分类,分类的目标就是落子向量A。通过不断的训练,尽可能让计算机得到的向量A接近人类高手的落子结果b,这样就形成了一个模拟人类下围棋的神经网络,然后得出一个下棋函数F go()。当盘面走到任何一种情形的时候,AlphaGo都可以通过调用函数F go()计算的结果来得到最佳的落子结果b可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段——策略网络的强化学习(即从____II______ 中学习)阶段,AlphaGo开始结合蒙特卡罗树搜索,不再机械地调用函数库,而类似于一种人类进化的过程:AlphaGo会和自己的老版本对弈。即,先使用F_go(1)和F_go(1)对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的F_go(2),再使用F_go(2)和F_go(1)对弈,以此类推,这样就可以得到胜率更高的F_go(n)。这样,AlphaGo就可以不断改善它在第一阶段学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo可以根据之前获得的学习经验得出估值函数v(s),用于预测策略网络自我对抗时棋盘盘面s的结果。最后,则是将F_go()、v(s)以及蒙特卡罗树搜索三者相互配合,使用F_go()作为初始分开局,每局选择分数最高的方案落子,同时调用v(s)在比赛中做出正确的判断。
这就是AlphaGo给围棋带来的新搜索算法。它创新性地将蒙特卡罗模拟和价值网络、策略网络结合起来训练深度神经网络。这样价值网络和策略网络相当于AlphaGo的两个大脑,策略网络负责在当前局面下判断“最好的”下一步,可以理解为落子选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估器。通过两个“大脑”各自选择的平均值,AlphaGo最终决定怎样落子胜算最大。通过这种搜索算法,AlphaGo和其他围棋程序比赛的胜率达到了99.8%。
AlphaGo的飞快成长是任何一个围棋世界冠军都无法企及的。随着计算机性能的不断增强,遍历蒙特卡罗搜索树将进一步提高命中概率。大量的计算机专家,配合大量的世界围棋高手,在算法上不断革新,再配合不断成长的超级计算能力,不断地从失败走向成功,最终打造出围棋人工智能。在AlphaGo击败李世石后,欧洲围棋冠军樊麾说了这么一句话:“这是一个团队的集体智慧用科技的方式战胜了人类数千年的经验积累。”人和机器其实没有站在对立面上,“是人类战胜了人类”。
根据文章,回答下列问题:
请为本文写一篇内容摘要。
要求:全面、准确,条理清楚,不超过300字。
查看答案
1997年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016年,谷歌人工智能AlphaGo又战胜了韩国棋手李世石。这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的DeepMind团队比预期提前了整整10年达到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单,它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个19x19的正方形棋盘中,落下的棋子就不能再移动了,只会在被对方棋子包围时被提走,到了棋局结束时,占据棋盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能下法也非常多。以国际象棋作对比,国际象棋每一步平均约有35种不同的可能走法,一般情况下,多数棋局会在80步之内结束。围棋棋盘共有361个落子点,双方交替落子,整个棋局的总排列组合数共有约10701种可能性,这远远超过了宇宙中的原子总数——10^{80}!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上来讲目前不可能做到。
“蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有100个苹果,每次闭着眼拿出1个,最终要挑出最大的1个。于是先随机拿1个,再随机拿1个跟它比,留下大的,再随机拿1个……每拿一次,留下的苹果都至少不比上次的小。拿的次数越多,挑出的苹果就越大。但除非拿100次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的搜索树还是太大了。
AlphaGo人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo借助两个深度卷积神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆叠在一起,用于生成图片逐渐抽象的、局部的特征。对图像分析得越细,利用的神经网络层就越多。AlphaGo 也采取了类似的架构,将围棋棋盘上的盘面视为19×19的图片输入,然后通过卷积层来表征盘面。这样,两个深度卷积神经网络中的价值网络用于评估盘面,策略网络用于采样动作。
在深度学习的第一阶段——策略网络的有监督学习(即从______I____中学习)阶段,拥有13层神经网络的AlphaGo借助围棋数据库KGS中存储的3000万份对弈棋谱进行初步学习。这3000万份棋谱样本可以用a、b进行统计。a是一个二维棋局,把a输入到一个卷积神经网络进行分类,分类的目标就是落子向量A。通过不断的训练,尽可能让计算机得到的向量A接近人类高手的落子结果b,这样就形成了一个模拟人类下围棋的神经网络,然后得出一个下棋函数F go()。当盘面走到任何一种情形的时候,AlphaGo都可以通过调用函数F go()计算的结果来得到最佳的落子结果b可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段——策略网络的强化学习(即从____II______ 中学习)阶段,AlphaGo开始结合蒙特卡罗树搜索,不再机械地调用函数库,而类似于一种人类进化的过程:AlphaGo会和自己的老版本对弈。即,先使用F_go(1)和F_go(1)对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的F_go(2),再使用F_go(2)和F_go(1)对弈,以此类推,这样就可以得到胜率更高的F_go(n)。这样,AlphaGo就可以不断改善它在第一阶段学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo可以根据之前获得的学习经验得出估值函数v(s),用于预测策略网络自我对抗时棋盘盘面s的结果。最后,则是将F_go()、v(s)以及蒙特卡罗树搜索三者相互配合,使用F_go()作为初始分开局,每局选择分数最高的方案落子,同时调用v(s)在比赛中做出正确的判断。
这就是AlphaGo给围棋带来的新搜索算法。它创新性地将蒙特卡罗模拟和价值网络、策略网络结合起来训练深度神经网络。这样价值网络和策略网络相当于AlphaGo的两个大脑,策略网络负责在当前局面下判断“最好的”下一步,可以理解为落子选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估器。通过两个“大脑”各自选择的平均值,AlphaGo最终决定怎样落子胜算最大。通过这种搜索算法,AlphaGo和其他围棋程序比赛的胜率达到了99.8%。
AlphaGo的飞快成长是任何一个围棋世界冠军都无法企及的。随着计算机性能的不断增强,遍历蒙特卡罗搜索树将进一步提高命中概率。大量的计算机专家,配合大量的世界围棋高手,在算法上不断革新,再配合不断成长的超级计算能力,不断地从失败走向成功,最终打造出围棋人工智能。在AlphaGo击败李世石后,欧洲围棋冠军樊麾说了这么一句话:“这是一个团队的集体智慧用科技的方式战胜了人类数千年的经验积累。”人和机器其实没有站在对立面上,“是人类战胜了人类”。
根据文章,回答下列问题:
请根据文意,分别填补文中Ⅰ、Ⅱ两处缺项,每空不超过6个字。
Ⅰ( )Ⅱ()
查看答案
1997年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016年,谷歌人工智能AlphaGo又战胜了韩国棋手李世石。这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的DeepMind团队比预期提前了整整10年达到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单,它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个19x19的正方形棋盘中,落下的棋子就不能再移动了,只会在被对方棋子包围时被提走,到了棋局结束时,占据棋盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能下法也非常多。以国际象棋作对比,国际象棋每一步平均约有35种不同的可能走法,一般情况下,多数棋局会在80步之内结束。围棋棋盘共有361个落子点,双方交替落子,整个棋局的总排列组合数共有约10701种可能性,这远远超过了宇宙中的原子总数——10^{80}!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上来讲目前不可能做到。
“蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有100个苹果,每次闭着眼拿出1个,最终要挑出最大的1个。于是先随机拿1个,再随机拿1个跟它比,留下大的,再随机拿1个……每拿一次,留下的苹果都至少不比上次的小。拿的次数越多,挑出的苹果就越大。但除非拿100次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的搜索树还是太大了。
AlphaGo人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo借助两个深度卷积神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆叠在一起,用于生成图片逐渐抽象的、局部的特征。对图像分析得越细,利用的神经网络层就越多。AlphaGo 也采取了类似的架构,将围棋棋盘上的盘面视为19×19的图片输入,然后通过卷积层来表征盘面。这样,两个深度卷积神经网络中的价值网络用于评估盘面,策略网络用于采样动作。
在深度学习的第一阶段——策略网络的有监督学习(即从______I____中学习)阶段,拥有13层神经网络的AlphaGo借助围棋数据库KGS中存储的3000万份对弈棋谱进行初步学习。这3000万份棋谱样本可以用a、b进行统计。a是一个二维棋局,把a输入到一个卷积神经网络进行分类,分类的目标就是落子向量A。通过不断的训练,尽可能让计算机得到的向量A接近人类高手的落子结果b,这样就形成了一个模拟人类下围棋的神经网络,然后得出一个下棋函数F go()。当盘面走到任何一种情形的时候,AlphaGo都可以通过调用函数F go()计算的结果来得到最佳的落子结果b可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段——策略网络的强化学习(即从____II______ 中学习)阶段,AlphaGo开始结合蒙特卡罗树搜索,不再机械地调用函数库,而类似于一种人类进化的过程:AlphaGo会和自己的老版本对弈。即,先使用F_go(1)和F_go(1)对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的F_go(2),再使用F_go(2)和F_go(1)对弈,以此类推,这样就可以得到胜率更高的F_go(n)。这样,AlphaGo就可以不断改善它在第一阶段学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo可以根据之前获得的学习经验得出估值函数v(s),用于预测策略网络自我对抗时棋盘盘面s的结果。最后,则是将F_go()、v(s)以及蒙特卡罗树搜索三者相互配合,使用F_go()作为初始分开局,每局选择分数最高的方案落子,同时调用v(s)在比赛中做出正确的判断。
这就是AlphaGo给围棋带来的新搜索算法。它创新性地将蒙特卡罗模拟和价值网络、策略网络结合起来训练深度神经网络。这样价值网络和策略网络相当于AlphaGo的两个大脑,策略网络负责在当前局面下判断“最好的”下一步,可以理解为落子选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估器。通过两个“大脑”各自选择的平均值,AlphaGo最终决定怎样落子胜算最大。通过这种搜索算法,AlphaGo和其他围棋程序比赛的胜率达到了99.8%。
AlphaGo的飞快成长是任何一个围棋世界冠军都无法企及的。随着计算机性能的不断增强,遍历蒙特卡罗搜索树将进一步提高命中概率。大量的计算机专家,配合大量的世界围棋高手,在算法上不断革新,再配合不断成长的超级计算能力,不断地从失败走向成功,最终打造出围棋人工智能。在AlphaGo击败李世石后,欧洲围棋冠军樊麾说了这么一句话:“这是一个团队的集体智慧用科技的方式战胜了人类数千年的经验积累。”人和机器其实没有站在对立面上,“是人类战胜了人类”。
根据文章,回答下列问题:
传统的计算机围棋程序能够完成全尺寸棋盘的蒙特卡罗树模拟并计算最大胜率。
查看答案
1997年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016年,谷歌人工智能AlphaGo又战胜了韩国棋手李世石。这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的DeepMind团队比预期提前了整整10年达到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单,它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个19x19的正方形棋盘中,落下的棋子就不能再移动了,只会在被对方棋子包围时被提走,到了棋局结束时,占据棋盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能下法也非常多。以国际象棋作对比,国际象棋每一步平均约有35种不同的可能走法,一般情况下,多数棋局会在80步之内结束。围棋棋盘共有361个落子点,双方交替落子,整个棋局的总排列组合数共有约10701种可能性,这远远超过了宇宙中的原子总数——10^{80}!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上来讲目前不可能做到。
“蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有100个苹果,每次闭着眼拿出1个,最终要挑出最大的1个。于是先随机拿1个,再随机拿1个跟它比,留下大的,再随机拿1个……每拿一次,留下的苹果都至少不比上次的小。拿的次数越多,挑出的苹果就越大。但除非拿100次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的搜索树还是太大了。
AlphaGo人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo借助两个深度卷积神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆叠在一起,用于生成图片逐渐抽象的、局部的特征。对图像分析得越细,利用的神经网络层就越多。AlphaGo 也采取了类似的架构,将围棋棋盘上的盘面视为19×19的图片输入,然后通过卷积层来表征盘面。这样,两个深度卷积神经网络中的价值网络用于评估盘面,策略网络用于采样动作。
在深度学习的第一阶段——策略网络的有监督学习(即从______I____中学习)阶段,拥有13层神经网络的AlphaGo借助围棋数据库KGS中存储的3000万份对弈棋谱进行初步学习。这3000万份棋谱样本可以用a、b进行统计。a是一个二维棋局,把a输入到一个卷积神经网络进行分类,分类的目标就是落子向量A。通过不断的训练,尽可能让计算机得到的向量A接近人类高手的落子结果b,这样就形成了一个模拟人类下围棋的神经网络,然后得出一个下棋函数F go()。当盘面走到任何一种情形的时候,AlphaGo都可以通过调用函数F go()计算的结果来得到最佳的落子结果b可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段——策略网络的强化学习(即从____II______ 中学习)阶段,AlphaGo开始结合蒙特卡罗树搜索,不再机械地调用函数库,而类似于一种人类进化的过程:AlphaGo会和自己的老版本对弈。即,先使用F_go(1)和F_go(1)对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的F_go(2),再使用F_go(2)和F_go(1)对弈,以此类推,这样就可以得到胜率更高的F_go(n)。这样,AlphaGo就可以不断改善它在第一阶段学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo可以根据之前获得的学习经验得出估值函数v(s),用于预测策略网络自我对抗时棋盘盘面s的结果。最后,则是将F_go()、v(s)以及蒙特卡罗树搜索三者相互配合,使用F_go()作为初始分开局,每局选择分数最高的方案落子,同时调用v(s)在比赛中做出正确的判断。
这就是AlphaGo给围棋带来的新搜索算法。它创新性地将蒙特卡罗模拟和价值网络、策略网络结合起来训练深度神经网络。这样价值网络和策略网络相当于AlphaGo的两个大脑,策略网络负责在当前局面下判断“最好的”下一步,可以理解为落子选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估器。通过两个“大脑”各自选择的平均值,AlphaGo最终决定怎样落子胜算最大。通过这种搜索算法,AlphaGo和其他围棋程序比赛的胜率达到了99.8%。
AlphaGo的飞快成长是任何一个围棋世界冠军都无法企及的。随着计算机性能的不断增强,遍历蒙特卡罗搜索树将进一步提高命中概率。大量的计算机专家,配合大量的世界围棋高手,在算法上不断革新,再配合不断成长的超级计算能力,不断地从失败走向成功,最终打造出围棋人工智能。在AlphaGo击败李世石后,欧洲围棋冠军樊麾说了这么一句话:“这是一个团队的集体智慧用科技的方式战胜了人类数千年的经验积累。”人和机器其实没有站在对立面上,“是人类战胜了人类”。
根据文章,回答下列问题:
比较分析AlphaGo新算法与蒙特卡罗树搜素的不同之处。
要求:概括准确,层次清晰,文字简洁,不超过250字。
查看答案
1997年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016年,谷歌人工智能AlphaGo又战胜了韩国棋手李世石。这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的DeepMind团队比预期提前了整整10年达到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单,它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个19x19的正方形棋盘中,落下的棋子就不能再移动了,只会在被对方棋子包围时被提走,到了棋局结束时,占据棋盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能下法也非常多。以国际象棋作对比,国际象棋每一步平均约有35种不同的可能走法,一般情况下,多数棋局会在80步之内结束。围棋棋盘共有361个落子点,双方交替落子,整个棋局的总排列组合数共有约10701种可能性,这远远超过了宇宙中的原子总数——10^{80}!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上来讲目前不可能做到。
“蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有100个苹果,每次闭着眼拿出1个,最终要挑出最大的1个。于是先随机拿1个,再随机拿1个跟它比,留下大的,再随机拿1个……每拿一次,留下的苹果都至少不比上次的小。拿的次数越多,挑出的苹果就越大。但除非拿100次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的搜索树还是太大了。
AlphaGo人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo借助两个深度卷积神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆叠在一起,用于生成图片逐渐抽象的、局部的特征。对图像分析得越细,利用的神经网络层就越多。AlphaGo 也采取了类似的架构,将围棋棋盘上的盘面视为19×19的图片输入,然后通过卷积层来表征盘面。这样,两个深度卷积神经网络中的价值网络用于评估盘面,策略网络用于采样动作。
在深度学习的第一阶段——策略网络的有监督学习(即从______I____中学习)阶段,拥有13层神经网络的AlphaGo借助围棋数据库KGS中存储的3000万份对弈棋谱进行初步学习。这3000万份棋谱样本可以用a、b进行统计。a是一个二维棋局,把a输入到一个卷积神经网络进行分类,分类的目标就是落子向量A。通过不断的训练,尽可能让计算机得到的向量A接近人类高手的落子结果b,这样就形成了一个模拟人类下围棋的神经网络,然后得出一个下棋函数F go()。当盘面走到任何一种情形的时候,AlphaGo都可以通过调用函数F go()计算的结果来得到最佳的落子结果b可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段——策略网络的强化学习(即从____II______ 中学习)阶段,AlphaGo开始结合蒙特卡罗树搜索,不再机械地调用函数库,而类似于一种人类进化的过程:AlphaGo会和自己的老版本对弈。即,先使用F_go(1)和F_go(1)对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的F_go(2),再使用F_go(2)和F_go(1)对弈,以此类推,这样就可以得到胜率更高的F_go(n)。这样,AlphaGo就可以不断改善它在第一阶段学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo可以根据之前获得的学习经验得出估值函数v(s),用于预测策略网络自我对抗时棋盘盘面s的结果。最后,则是将F_go()、v(s)以及蒙特卡罗树搜索三者相互配合,使用F_go()作为初始分开局,每局选择分数最高的方案落子,同时调用v(s)在比赛中做出正确的判断。
这就是AlphaGo给围棋带来的新搜索算法。它创新性地将蒙特卡罗模拟和价值网络、策略网络结合起来训练深度神经网络。这样价值网络和策略网络相当于AlphaGo的两个大脑,策略网络负责在当前局面下判断“最好的”下一步,可以理解为落子选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估器。通过两个“大脑”各自选择的平均值,AlphaGo最终决定怎样落子胜算最大。通过这种搜索算法,AlphaGo和其他围棋程序比赛的胜率达到了99.8%。
AlphaGo的飞快成长是任何一个围棋世界冠军都无法企及的。随着计算机性能的不断增强,遍历蒙特卡罗搜索树将进一步提高命中概率。大量的计算机专家,配合大量的世界围棋高手,在算法上不断革新,再配合不断成长的超级计算能力,不断地从失败走向成功,最终打造出围棋人工智能。在AlphaGo击败李世石后,欧洲围棋冠军樊麾说了这么一句话:“这是一个团队的集体智慧用科技的方式战胜了人类数千年的经验积累。”人和机器其实没有站在对立面上,“是人类战胜了人类”。
根据文章,回答下列问题:
下列关于AlphaGo“两个大脑”的说法正确的是:
A.价值网络负责评估盘面优劣
B.策略网络负责判断走法优劣
C.策略网络能够协助价值网络提高运算效率
D.价值网络和策略网络共同确定最终的落子位置
查看答案
1997年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016年,谷歌人工智能AlphaGo又战胜了韩国棋手李世石。这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的DeepMind团队比预期提前了整整10年达到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单,它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个19x19的正方形棋盘中,落下的棋子就不能再移动了,只会在被对方棋子包围时被提走,到了棋局结束时,占据棋盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能下法也非常多。以国际象棋作对比,国际象棋每一步平均约有35种不同的可能走法,一般情况下,多数棋局会在80步之内结束。围棋棋盘共有361个落子点,双方交替落子,整个棋局的总排列组合数共有约10701种可能性,这远远超过了宇宙中的原子总数——10^{80}!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上来讲目前不可能做到。
“蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有100个苹果,每次闭着眼拿出1个,最终要挑出最大的1个。于是先随机拿1个,再随机拿1个跟它比,留下大的,再随机拿1个……每拿一次,留下的苹果都至少不比上次的小。拿的次数越多,挑出的苹果就越大。但除非拿100次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的搜索树还是太大了。
AlphaGo人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo借助两个深度卷积神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆叠在一起,用于生成图片逐渐抽象的、局部的特征。对图像分析得越细,利用的神经网络层就越多。AlphaGo 也采取了类似的架构,将围棋棋盘上的盘面视为19×19的图片输入,然后通过卷积层来表征盘面。这样,两个深度卷积神经网络中的价值网络用于评估盘面,策略网络用于采样动作。
在深度学习的第一阶段——策略网络的有监督学习(即从______I____中学习)阶段,拥有13层神经网络的AlphaGo借助围棋数据库KGS中存储的3000万份对弈棋谱进行初步学习。这3000万份棋谱样本可以用a、b进行统计。a是一个二维棋局,把a输入到一个卷积神经网络进行分类,分类的目标就是落子向量A。通过不断的训练,尽可能让计算机得到的向量A接近人类高手的落子结果b,这样就形成了一个模拟人类下围棋的神经网络,然后得出一个下棋函数F go()。当盘面走到任何一种情形的时候,AlphaGo都可以通过调用函数F go()计算的结果来得到最佳的落子结果b可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段——策略网络的强化学习(即从____II______ 中学习)阶段,AlphaGo开始结合蒙特卡罗树搜索,不再机械地调用函数库,而类似于一种人类进化的过程:AlphaGo会和自己的老版本对弈。即,先使用F_go(1)和F_go(1)对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的F_go(2),再使用F_go(2)和F_go(1)对弈,以此类推,这样就可以得到胜率更高的F_go(n)。这样,AlphaGo就可以不断改善它在第一阶段学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo可以根据之前获得的学习经验得出估值函数v(s),用于预测策略网络自我对抗时棋盘盘面s的结果。最后,则是将F_go()、v(s)以及蒙特卡罗树搜索三者相互配合,使用F_go()作为初始分开局,每局选择分数最高的方案落子,同时调用v(s)在比赛中做出正确的判断。
这就是AlphaGo给围棋带来的新搜索算法。它创新性地将蒙特卡罗模拟和价值网络、策略网络结合起来训练深度神经网络。这样价值网络和策略网络相当于AlphaGo的两个大脑,策略网络负责在当前局面下判断“最好的”下一步,可以理解为落子选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估器。通过两个“大脑”各自选择的平均值,AlphaGo最终决定怎样落子胜算最大。通过这种搜索算法,AlphaGo和其他围棋程序比赛的胜率达到了99.8%。
AlphaGo的飞快成长是任何一个围棋世界冠军都无法企及的。随着计算机性能的不断增强,遍历蒙特卡罗搜索树将进一步提高命中概率。大量的计算机专家,配合大量的世界围棋高手,在算法上不断革新,再配合不断成长的超级计算能力,不断地从失败走向成功,最终打造出围棋人工智能。在AlphaGo击败李世石后,欧洲围棋冠军樊麾说了这么一句话:“这是一个团队的集体智慧用科技的方式战胜了人类数千年的经验积累。”人和机器其实没有站在对立面上,“是人类战胜了人类”。
根据文章,回答下列问题:
这篇文章开头认为围棋是人工智能在棋类比赛中最后弱项的原因是:
A.围棋每一步可能的下法太多,无法使用穷举搜索
B.围棋的规则对于计算机来说过于复杂,无法理解
C.单一的计算机神经网络难以应对围棋的搜索计算
D.围棋盘面局势的评估缺乏现代计算机技术的支撑
查看答案