关于华公 | 人才招聘 | 县级分校 | 市场合作 | 联系我们 | 网站纠错
增值电信业务经营许可证: 赣B2-20090096 赣ICP备2022000487号|出版物经营许可|营业执照|触屏版
版权所有2005-2024 江西华公未来教育科技有限公司(HGJY100.COM) ALL RIGHIS RESERVED 全国客服执线:400-966-2799
违法和不良信息举报电话:0791-87596552 举报/反馈/投诉邮箱:feedback@233.com
2019年上半年全国事业单位联考C类《综合应用能力》真题(考生回忆版)
一 、注意事项 一 、本科目满分150分,时限120分钟。
二 、请在本科目答题卡的指定位置按要求填写(涂)姓名和准考证号。
三 、请用黑色墨水笔在答题卡的指定区域内作答,超出答题区域的,作答无效。在题本上作答无效。 四 、所有题目一律使用现代汉语作答,未按要求作答的,不得分。
五 、监考人员宣布考试结束时,考生应立即停止答题,将题本、答题卡和草稿纸整理好放在桌面上,待监考人员清点无误 后,方可高开、
二 、给定材料材料1
1997年,国际象棋大师加里 · 卡斯帕罗夫败给了电脑“深蓝”;2016年,谷歌人工智能AlphaGo又战胜了韩国棋手李世石, 这标志着人工智能终于征服了它在棋类比赛中最后的弱项 — — 围棋,谷歌公司的DeepMind团队比预期提前了整整10年达 到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服- 与此完全相反,围棋规则更简单,它其实只有一种 棋子,对弈的观方轮流把黑色和白色的拱子放到一个19×19的正方形拱盘中,落下的棋子就不能再移动了,只会在被对方棋 子包围时被提走。到了棋局结束时,占据拱盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能下法也非常多。 以国际象棋作对比,国际象棋每一步平均约有35种不同的可能走法, 一般情况下,多数棋局会在80步之内结束。围棋棋盘 共有361个落子点,双方交替落子,整个棋局的总排列组合数共有约10171种可能性,这远远超过了宇宙中的原子总数 ——1080!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力“方法,再辅以一些技巧,来寻找对弈策略,也就是 对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈树进行穷举搜索的策略对计算能 力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上来讲目前不可能做到。
“蒙特卡罗树搜素”是一种基于蒙特卡罗算法的启发式按素策略,能够根据对搜素空间的随机抽样来扩大搜素树,从而分析 围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有100个苹果,每次闭着眼章出1个,最终 更挑出最大的1个,于是先随机章1个,再随机章1个跟它比,留下大的,再随机章1个 … … 每章一次,留下的革果都至少C 不比上次的小,章的次数越多,挑出的苹果就越大。但除非章100次,否则无法肯定挑出了最大的。这个挑苹果的方法,就 属于蒙特卡罗算法。虽然“蒙特卡罗树拽索“在此前一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但 在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的搅索树还是太大了。
AlphaGo人工智能程序中最新颖的技术当属它获取知识的方式 — — 深度学习。AlphaGo借助两个深度卷积神经网络(价值 网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆叠在一起,用于生成图片逐渐 抽象的、局部的表征。对图像分析得越细,利用的神经网络层就越多。AlphaGo也采取了类似的架构,将围棋模盘上的盘面 视为19×19的图片输入,然后通过卷积层来表征盘面。这样,两个深度卷积神经网络中的价值网络用于评估盘面,策略网络 则用于采样动作。
在深度学习的第 一 阶段 — — 策略网络的有监督学习(即从中I中学习)阶段,拥有13层神经网络的AlphaGo借助围棋 数据库KGS中存储的3000万份对弈棋谱进行初步学习。这3000万份棋谱样本可以用a、b进行统计。a是 一个二维棋局,
把a输入到 一个卷积神经网络进行分类,分类的目标就是落子向量A。通过不断的训练,尽可能让计算机得到的向量A接 近人类高手的落子结果b,这样就形成了一个模拟人类下围棋的神经网络,然后得出一个下棋函数F go()。当盘面走到任 何 一种情形的时候,AlphaGo都可以通过调用函数F go()计算的结果来得到最佳的落子结果b可能的概率分布,并依据 这个概率来挑选下 一 步的动作。在第二阶段 — — 策略网络的强化学习(即从? 中学习〉阶段,AlphaGo开始结合蒙特卡 罗树拽索,不再机械地调用函数库,而类似于一种人类进化的过程:AlphaGo会和自己的老版本对奔。即,先使用F g0(1) 和F go(1)对弈,得到了 一定量的新棋谱,将这些新棋谱加入到训陈集当中,训练出新的F go(2),再使用F g0(2)和 F g0(1)对弈,以此类推,这样就可以得到胜率更高的F go(n)。这样,AlphaGo就可以不断改善它在第一 阶段学到的知 识。在第三阶段 — — 价值网络的强化学习阶段,AlphaGo可以根据之前获得的学习经验得出估值函数v(s),用于预测策略 网络自我对抗时棋盘盘面s的结果。最后,则是将F go()、v(s)以及蒙特卡罗树拽索三者相互配合,使用F go()作 为初始分开局,每局迭择分数最高的方案落子,同时调用v(s)在比寒中做出正确的判断。这就是AlphaGo给围棋带来的新搜索算法。它创新性地将蒙特卡罗模拟和价值网络、策略网路结合起来训练深度神经网络。 这样价值网络和第略网路相当于AlphaGo的两个大脑,策略网络负责在当前局面下判断“最好的“下一步,可以理解为落子 选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估 器,通过两个“大脑“各自选择的平均值,AlphaGo最终决定怎样落子胜算最大。通过这种搜索算法,AlphaGo和其他围棋程 序比寒的胜率达到了99.8%。
AlphaGo的飞快成长是任何一个围棋世界冠军都无法企及的。随着计算机性能的不断增强,遍历蒙特卡罗揽索树将进一步 提高命中概率。大量的计算机专家,配合大量的世界围棋高手,在算法上不断革新,再配合不断成长的超级计算能力,不断 地从失败走向成功,最终打造出围棋人工智能。在AlphaGo击败李世石后,欧洲围棋冠军樊度说了这么一句话:“这是一个 团队的集体智慧用科技的方式战胜了人类数千年的经验积累。”人和机器其实没有站在对立面上,“是人类战胜了人类”。
材 料 2
上世纪80年代,M市高温首日经常出现在6月中下旬至7月,到21世纪,往往还没到6月中句,M市气温就会蹿至35? 以上,仅有两年的高温日到7月才出现,1981年以来,M市6-8月高温日出现越来越频繁,可见,M市首个高温日的出现 时间越来越早,21世纪后每年首个高温日出现时间肯定早于上世纪80年代。
在M市, 一 年中最热的时候莫过于7月,1997年以来,高温日数逐渐增多。截至2018年月中旬,2018年M市高于35? 的日子已有6个,比往年7月的平均数还多2个。可以确定,这 一 年M市7月的高温日总数将是1997年以来最多的 一 年。 另外据统计,M市7月的高温日整体多于6月和8月,照此趋势,2018年8月的高温日可能不会超过7月。
近30年来,M市7月的夜温越来越高,1999年以来7月的夜间最低气温普遍超过23?,所以2018年7月下旬M市夜间 的最低气温不会低于23?。
同样近30年来,M市6- 8月出现持续3天以上高温的总次数为27次,20次都是在2000年以后出现的,2018年6月和7 月,M市已经分别出现了 一 次持续3天以上的高温。既然2018年M市出现3天以上持续高温的次数已经超过了近30年来 的平均值,那么8月份M市不会出现3天以上的持续高温天气。
30年来,M市“城市热岛效应”煎发显著,城区与郊区的平均气温差值越来越大。2018年7月M市各区平均气温偏高,均 超过26 .7?。其中市中心2个城区气温最高,其次是环市中心的其他4个城区,2个郊区的气温最低。(注:高温日为日最 高气温=35?)
材 料 3
材料一 :细菌学家弗莱明的实验室里摆放着许多有毒细菌培养皿。多年来,
他试验了各种药剂,力图找到一种能杀灭这些细菌的理想药品,但一直未能成功。1928年的一个早晨,他在检查细菌的变 化时,突然发现一个葡萄状球菌的培养皿里长出了一 团青色霉菌,并且其周围原来生长着的葡萄状球菌消失了,他进一步研 究发现,这种青色霉菌对其他多种有毒细菌同样具有杀灭作用,他把这种青色霉菌分泌的杀菌物质称为青霉素。
材料二:1870年,英国科学家克鲁克斯在做阴极射线管放电实验时,意外发现管子附近的照相底片有模糊阴影,他判断是 照相的干板有毛病;1890年美国科学家古德斯柏德在傲相同的实验时也发现同样的现象,他归因于冲洗药水和冲洗技术有 问题;到了1892年,德国有些物理学家也观察到这一现象,但当时他们的注意力都集中在研究阴极射线的性质上,对此并 没有警觉。直到1895年,这一奇特现象才被德国物理学家伦琴敏锐地抓住,他反复研究实验,最终发现了X射线,他也因 此获得诺贝尔物理学奖。
材料三:丹麦天文学家第谷三十年如一 日观测天象,记录了750颗星相对位置的变化,纠正了以往星表中的错误。但第谷 不善于对感性材料进行科学抽象和概括,终究未能揭示行星运动规律。临终前,他把自已所有的材料交给了学生开普勒,要 求他继续研究行星运动的理论。起初,开昔勒以第谷宇宙体系为基本框架来探讨这个问题,但壹无所获,于是转而以哥白尼 日心体系为基本框架展开研究。他精于理论思维和数学推导,根据老师留下的大量一手资料,最终发现了天体运动的三大定 律,被誉为“天空立法者"。
三 、作答要求科技文献阅读题:请认真阅读文章,按照每道题的要求作答。(50分)
根据材料1,回答下列问题:
1判断题;请用2B铅笔在答题卡相应的题号后填涂作答,正确的涂“A”,错误的涂“B”。
(1)国际象棋的走法不超过35×80种。
(2)结构简单的棋类游戏可以通过对博弈树的“暴力”穷举搜索找出最优走法。
(3)传统的计算机围棋程序能够完成全尺寸棋盘的蒙特卡罗树模拟并计算最大胜率。
(4)函数F go(n)比F go(n- 1)的胜率更高。
2填空题:请根据文意,分别填补文中?、?两处缺项,每空不超过6个字。
3多项选择题:备选项中有两个或两个以上符合题意,请用2B铅笔在答题卡相应的题号后填涂正确选项的序号,错选、 少选均不得分。
(1)这篇文章开头认为围棋是人工智能在棋类比寒中最后弱项的原因是:
A.围棋每一步可能的下法太多,无法使用穷举搜索
B.围棋的规则对于计算机来说太过复杂,无法理解
C. 单一的计算机神经网络难以应对围棋的按索计算
D. 围棋盘面局势的评估缺乏现代计算机技术的支挥
(2)下列关于AlphaGo“两个大脑”的说法正确的是
A. 价值网络负责评估盘面优劣
B. 策略网络负责判断走法优劣
C. 策略网络能够协助价值网络提高运算效率
D. 价值网络和策略网络共同确定最终的落子位置
4. 比较分析AlphaGo新算法与蒙特卡罗树搜索的不同之处。 要求;概括准确,层次清晰,文字简洁,不超过250字。
5. 请为本文写一篇内容摘要。
要求:全面、准确,条理清楚,不超过300字。
论证评价题:阅读给定材料2,指出其中存在的4处论证错误并分别说明理由。请在答题卡上按序号分条作答,每一条先 将论证错误写在”A”处(不超过75字〉,再将相应理由写在“B*处(不超过50字)。(40分)
材料作文题:阅读下列材料,按要求作答。(60分〉
参考给定材料3,以“科学发现中的偶然“为话题,自选角度,自拟题目,写一篇议论文。
要求;观点鲜明,论证充分,条理清晰,语言流畅,字数800-1000字。
1、梦考答案:
1
(1) B
根据第3自然段”整个棋局的总排列组合数共有约10171种可能性,这远远超过了宇审中的原子总数 1080°可知, 国际象棋的走法超过了35×80种,并非“不超过35×80种”,表述错误;
(2)A
根据第4自然段“对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的‘暴力’方法……也就是对余下可能 出现的所有盘面都进行尝试并给予评价,从而找出最优的走法“可知,“结构简单的棋类游戏“可以把“所有盘面都进行尝试并 给予评价”,即“穷举”,故表述正确;
(3)B
根据第5自然段“虽然‘蒙特卡罗树搜索’……在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的 搜索树还是太大了“可知,“能够完成全尺寸棋盘的藻特卡罗树模拟”表述错误;
(4)A
根据第7自然段“先使用F go(1)和F go(1对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新 的F go(2),再使用F g0(2)和F g0(1)对弈,以此类推,这样就可以得到胜率更高的F g0(n)可知,函数F go(2)比F go(1)
的胜率更高,以此类推,函数F go(n)比F go(n-1)的胜率更高,表述正确。
2
?(数据库的棋谱) ?(与老版本对弈)
3
(1)
【答案】 ABCD
【考点】言语理解与表达 ·阅读理解 ·细节判断题-典型细节题 【解析】定位原文第2段,第3段。
A项,由“原因在于围棋的步数非常多,而且每一步的可能下法也非常多”可知”下法太多”表述正确;由“这种对整棵博 弈树进行穷举搜索的策略对计算能力要求很高……从技术上来讲目前不可能做到“可知,A项“无法使用穷举搜索”表述正确, 当选。
B项,由“围棋的规则如此简单,但对于计算机来说却又异常复杂”,可知“围棋的规则对于计算机来说太过复杂”表述 正确,B项当选。
C项,由“这种对整棵博弈树进行穷举搜索的策略对计算能力要求很高……尤其是围棋,从技术上来讲目前不可能做 到。”可知,目前的计算机还无法对整棵博弈树进行穷举搜索,C项“难以应对围拱的拨索计算”表述正确,当选。
D项,由“也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法……尤其是围棋,从技术上 来讲目前不可能做到。”可知目前围棋盘面的评估缺乏相关技术的支持,D项表述正确,当选。
故正确答案为ABCD。
(2)
【答案】 ABD
【考点】言语理解与表达 ·阅读理解 ·细节判断题典型细节题 【解析]A项,由“价值网络负责评估整体盘面的优劣 …… 可以理解为棋局评估器”可知,盘面优劣是由价值网络评估的,A项表述正确,当选。
B项由“策略网络负责在当前局面下判断”最好的”下一步,可以理解为落子选择器”可知,如何落子由策略网络负责, B项表述正确,当选。
C项,由“价值网络负责评估整体盘面的优劣……协助前者提高运算效率”可知,起到协助作用的是价值网络而非第略 网络,C项“策略网络能够协助价值网络”表述错误,排除。
D项,由“通过两个‘大脑’各自选择的平均值,AlphaGo最终决定怎样落子胜算最大”可知,如何落子由价值网络和 策略网络这两个大脑共同决定,D项表述正确
故正确答案为ABD。
一、算法理论不同。AlphaGo利用深度学习的方式,借助价值网络和策略网络自主学习新知识。“蒙特卡罗树搜索”是 一种基于蒙特卡罗算法的启发式搜索策略。
二、算法步骤不同。AlphaGo先进行策略网络的有监督学习,再进行强化学习,最后进行价值网络的强化学习。“蒙特 卡罗树搜索”先根据对按索空间的随机抽样来扩大搜索树,再分析每一步棋的最佳走法。
三、适用性不同。AphaGo可以适用于正规全尺寸棋盘,且胜率高。“蒙特卡罗树搜素”因按索树大而无法在正规的全 尺寸棋盘应用。
AlphaGo新算法更先进。未来人工智能发展应重视深度学习这一方法。
5
摘要:围棋规则看似简单,但每一步走法多,单纯通过计算机进行穷举拽索难度大,但人工習能克服了这些困难,战 胜了人类。
目前,计算机两种算法: 一种是蒙特卡罗树挑索算法。它是基于萦特卡罗算法的启发式搜索策略,根据对搜索空间的 随机抽样来扩大搜索树,再分析最佳走法。另一种是AlphaGo新算法,利用深度学习的方式,借助价值网络和策略网络自 主学习新知识,分为策略网络监督、强化和价值网络强化学习三个阶段。蒙特卡罗树搅索因搜索树大而适用性较弱。AlphaGo 可以适用于正规全尺寸棋盘,且胜率高。
人工智能实质上是人类集体智慧在科技方面的体现,人和机器没有站在对立面上,与其说人工智能战胜了人类,不如 说人类战胜了人类。
2、 参考答案:
A: 第一段由“80年代M市高温首日常出现在6-7月,21世纪仅两年到7月才出现”,推出结论“21世纪后高温首日每 年肯定早于80年代出现”存在论证错误。
B:21 世纪高温首日有两年出现于7月,可能比80年代的某年出现的晚,不能得出“每年肯定早于80年代”。
A: 第二段由“2018年M市高于35?的日子比往年平均数多2个”,推出结论“这 一 年M市7月的高温日总数将是1997 年以来最多的一年“存在论证错误。(65字)
B: 因为论据是对比的往年7月平均高温日数量,无法判断个体情况,故而无法推出结论。
A: 第三段由“1999年以来7月的夜间最低气温普遍超过23?”,推出结论“2018年7月下旬M市夜间的最低气温不会 低于23?”存在论证错误。
B: 因为论据中的事件发生在过去,事件本身会随着时间的推移发生变化,不能通过简单的类比,得出结论。
A: 第四段由“2018年M市出现3天以上持续高温的次数已经超过了近30年来的平均值”,推出结论“8月份M市不会 出现3天以上的持续高温天气”存在论证错误。
B: 因为题干的论据和结论之间不存在必然的推出关系,属于强拉因果的错误。
3、参考答案:
科学发现并不偶然
翻开科学史,不难发现一个有意思的现象:人类早期的大多数发现和发明来自偶然的启发—— 坐在草地上的牛顿看着 苹果从树上掉下来而发现了万有引力定理,弗莱明忘了给培养培养皿罩上玻璃盖导致发现了青霉素 … … 然而,偶然的背后, 是一种必然。恰恰是“牛顿们“在科学之路上的不懈探索,善于发现,将各类知识融会贯通,才能从细节中发现科学规律。
科学真理的发现是有条件的,它永远留给那些在探索之路上坚持不懈、锲而不舍、唐续奋斗的人。作家叶永烈说:“真 理诞生于一百个问号之后”。诫哉斯言,纵观千百年来的科学技术发展史,那些定理、定律、学说的发现者、创立者,他们 都善于不断发问,不断解决疑问,启根求源,最后才能寻求到科学本来的面目。人们只有不断的探索与发现,才能获得真理, 只有“打破砂锅问到底”,锲而不舍地追根求源,找到答案,就能在现实生活中发现真谛。
发现真理还需要广泛掌握和积累知识,懂得承继前人的成就,能够将知识融汇贯通,不断革新。许多科研工作者之所 以学术成就有限,不是不够坚持,而是自身的知识储备有限。这种局限性, 一方面体现在掌握知识的深度不够,对本领域的 知识没有透彻的理解;另一方面体现在掌握知识的广度不够,对其他学科知识知之甚少,无法触类旁通。所以,想要有新的 科学发现,就要在深度和广度上下功夫。例如,开普勒之所以能被誉为“天空立法者”,一方面是他掌握了他的老师毕生研究 的资料,有了知识的“深度”;另一方面他将哥白尼的学说、数学知识向结合,有了知识的“广度”。这也恰恰印证了牛顿所说 的那句话:“如果说我看得远,那是因为我站在巨人的肩上"。
当然,除了锲而不舍的精神,知识的传承和革新,想要发现科学真理,科学家们还要有善于发现的眼睛和探求真理的 目光。巴斯德说,偶然的机会只对素有准备的人有利。这个“准备”,除了坚持外,还包含着“灵敏”,即善于从细节中发现全 貌,善于从偶然中找到必然,这似乎是一种天赋。谢皮罗教授从洗澡水的溢涡中联想到了地球的自转,由此诞生了著名的谢 皮罗现象;波义耳在冒烟紫罗兰上发现了酸碱变色的原理,制成了实验中常用的酸碱试纸-石薇试纸。毋庸讳言,正是这种 善于发现的能力,让这些科学家从细小的、司空见惯的现象中看出问题,改变世界。
从科学发明的角度看,人人都有创造的机会,但所谓的“偶然发现”绝非偶然。幸运的女神只对坚忍顽强、勤奋劳动、 百折不回的人报以微笑,机遇只垂青那些有科学素养的有心人。
1、参考答案:
1
(1)B
根据第3自然段“整个棋局的总排列组合数共有约10171种可能性,这远远超过了宇宙中的原子总数—— 1080“可知, 国际象棋的走法超过了35×80种,并非“不超过35×80种”,表述错误;
(2)A
根据第4自然段“对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的‘暴力’方法 …… 也就是对余下可能 出现的所有盘面都进行尝试并给予评价,从而找出最优的走法”可知,“结构简单的棋类游戏”可以把“所有盘面都进行尝试并
给予评价”,即“穷举”,故表述正确;
(3)B
根据第5自然段“虽然‘蒙特卡罗树搜索’ ……在正规的全尺寸棋盘上,这种方法仍然存在相当大的缺陷,因为涉及的 搜索树还是太大了“可知,“能够完成全尺寸棋盘的蒙特卡罗树模拟“表述错误;
(4)A
根据第7自然段“先使用F 80(1)和F go(1)对弈,得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新 的F go(2),再使用F g0(2)和F g0(1)对弈,以此类推,这样就可以得到胜率更高的F g0(n)“可知,函数Fgo(2)比F g0(1) 的胜率更高,以此类推,函数F go(m)比F g0(n-1)的胜率更高,表述正确。
2
? ( 数 据 库 的 棋 谱 ) ? ( 与 老 版 本 对 弈 )
3
(1 )
【答案】 ABCD
【考点】言语理解与表达-阅读理解-细节判断题-典型细节题 【解析】定位原文第2段,第3段。
A顶,由“原因在于围拱的步数非常多,而且每一步的可能下法也非常多“可知“下法太多”表述正确;由“这种对整棵博 弈树进行穷举搜索的策略对计算能力要求很高 ……从技术上来讲目前不可能做到“可知,A项“无法使用穷举搜索”表述正确, 当选 。
B项,由“围棋的规则如此简单,但对于计算机来说却又异常复杂”,可知“围棋的规则对于计算机来说太过复杂”表述 正确,B项当选。
C项,由“这种对整棵博弈树进行穷举拽索的策略对计算能力要求很高 … … 尤其是围棋,从技术上来讲目前不可能做 到。”可知,目前的计算机还无法对整棵博弈树进行穷举搜索,C项难以应对围棋的搜索计算”表述正确,当选。
D项,由“也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法 …… 尤其是围棋,从技术上 来讲目前不可能做到。”可知目前围棋盘面的评估缺乏相关技术的支持,D项表述正确,当选。
故正确答案为ABCD。
(2)
【答案】 ABD
【考点】言语理解与表达-阅读理解-细节并断题典型细节题 【解析】A项,由“价值网络负责评估整体盘面的优劣 …… 可以理解为棋局评估器“可知,盘面优劣是由价值网络评估的,A项表述正确,当选。
B项由“策略网络负责在当前局面下判断“最好的“下一步,可以理解为落子选择器”可知,如何落子由策略网络负责, B项表述正确,当选。
C项,由“价值网络负责评估整体盘面的优劣 ……协助前者提高运算效率“可知,起到协助作用的是价值网络而非策略 网络,C项“策略网络能够协助价值网络”表述错误,排除。
D项,由“通过两个“大脑’各自选择的平均值,AlphaGo最终决定怎样落子胜算最大”可知,如何落子由价值网络和 策略网络这两个大脑共同决定,D项表述正确。
故正确答案为ABD。
4
一 、算法理论不同。AlphaGo利用深度学习的方式,借助价值网络和策略网络自主学习新知识。“蒙特卡罗树搜索”是 一种基于蒙特卡罗算法的启发式搜索策略。
二、 算法步骤不同。AlphaGo先进行策略网络的有监督学习,再进行强化学习,最后进行价值网络的强化学习。“蒙特 卡罗树搜索“先根据对搜索空间的随机抽样来扩大搜索树,再分析每一步棋的最佳走法。
三、 适用性不同。AphaGo可以适用于正规全尺寸棋盘,且胜率高。“蒙特卡罗树搜索“因拽索树大而无法在正规的全 尺寸棋盘应用。
AlphaGo新算法更先进。未来人工智能发展应重视深度学习这一方法。
上一篇:2019年上半年全国事业单位联考D类《职业能力倾向测验》真题(云南-贵州-湖北-安徽-陕西-青海-甘肃网友回忆版)
上一篇:2019年上半年全国事业单位联考C类《职业能力倾向测验》真题(宁夏-广西-云南-贵州-湖北-安徽-陕西-青海-甘肃网友回忆版)
关注微信公众号(江西公考在线)
及时掌握考试资讯获取备考资料
回复“备考资料”领取备考大礼包