人工智能领域选题?人工智能领域
15
2024-06-10
各位老铁们,大家好,今天由我来为大家分享人工智能围棋如何练,以及人工智能围棋如何练技能的相关问题知识,希望对大家有所帮助。如果可以帮助到大家,还望关注收藏下本站,您的支持是我们最大的动力,谢谢大家了哈,下面我们开始吧!
本文目录
作为业余围棋选手,要战胜人工智能,首先要加强自身的围棋水平。通过学习专业的围棋教材、观看高水平对局和与强者对弈,提高自己的棋艺水平。
其次,要善于利用人工智能的优势,通过与围棋对弈,分析AI的下棋思路和策略,找出其弱点并加以利用。
同时,要保持冷静和耐心,不被AI的强大压力所影响,保持自信和专注,灵活应对AI的变化。
最后,要不断创新和探索,尝试新的开局和变招,以求在与AI对弈中找到突破口,取得胜利。
首先,是弈客围棋??
目前弈小天(弈客AI的昵称)的19路简单版大约弈客15-10K水平吧。它有一些AI的通病,比如死活看不清,只要坚持到后半盘,战胜它的希望就很大了
懂规则只是学好围棋的第一步,之后还要相继学习,爱棋道把围棋学习划分为12个阶段,分别是:
I-1、围棋规则:气提吃虎;禁入点;
I-2、吃子技巧:连接;杀气再看眼;
I-3、围棋基本下法:基础布局、基础定式与行棋方法;
I-4、围棋基础理念:安定拆边、发展拆边、高级吃子技巧,目的概念;
I-5、围棋行棋步法:夹击的方法、打入的方法、组合棋形;
I-6、子力配合的概念:子力的棋形搭配、子力的定式选择;
I-7、厚势的运用:什么是厚势,厚势的威力、厚势的攻击;
I-8、战斗力的提升:战斗方向、手段组合、棋形要点;
I-9、价值观的提升:布局重发展、中盘重厚薄、官子重目数;
I-10、全局观的认知:判断全局重点,选择符合全局的下法;
I-11、子效率提升:学习“更进一步”,每一步棋的效率提升;
I-12、稳定性的提升:高强度练习、实时监督;
从这个体系来看,问问题的同学还处在I-1的阶段,下不过高等级的AI是正常的。只需要按照这个体系逐渐学习和练习,棋力会得到一部分提升的~
人工智能目前的表现确实不错。在许多领域已经碾压人类的智慧。比如下围棋,可以让人类顶尖高手两个子。但是证明数学猜想AI还没有这个能力。为什么呢?这要从人工智能的发展讲起。
人类很早就掌握了圆周率的计算方法。中国古代的数学家在这方面多有建树。公元263年,魏晋时期的数学家刘徽(225年-295年)撰写了《九章算术注》,其中有一篇1800余字的注记,这篇注记内容就是数学史上著名的“割圆术”。后来南北朝时期杰出的数学家、天文学家祖冲之(429年-500年)在刘徽开创的探索圆周率的精确方法的基础上,首次将“圆周率”精算到小数第七位,即在3.1415926和3.1415927之间,他提出的“祖率”对数学的研究有重大贡献。直到16世纪,阿拉伯数学家阿尔·卡西才打破了这一纪录。而在掌握计算方法之后计算圆周率就是个力气活。在电子计算机出现后计算圆周率就是小菜一碟。
人类智慧和人工智能真正的较量是在解决复杂问题的能力上。
第一场较量是1997年IBM的深蓝战胜了国际象棋等级分排名世界第一的棋手加里·卡斯帕罗夫。战绩3.5:2.5(2胜1负3平)。首先1997年版本的深蓝输入了当时搜集到的100年内所有著名棋手的棋谱。1997年版本的深蓝运算速度为每秒2亿步棋。1997年的深蓝可搜寻及估计随后的12步棋,而一名人类象棋好手大约可估计随后的10步棋。正如中国古代军事家孙子所说:"夫未战而庙算胜者,得算多也。未战而庙算不胜者,得算少也。多算胜,少算不胜,而况于无算乎!"。
第二场较量是在19年后Google的AlphaGoMaster也战胜了等级分排名世界第一的围棋棋手柯洁。人类围棋的顶尖棋手和AlphaGoMaster的网络对战成绩是0:60。而Master还不是AlphaGo的最高级版本。
那么为什么计算机要19年后才能在围棋上战胜人类呢?还是计算的问题。围棋对AI的挑战难点在棋盘空间。国际象棋的空间状态是1043。而围棋是10170个状态空间。这样的游戏具有高分支因子。围棋中的可能场景的数量要大于宇宙中的原子数。光照顾了棋局的宽度(变化)就照顾不了棋局的深度(考虑的步数)。所以围棋职业棋手2016年之前一致认为计算机不可能下过人类顶尖棋手。
从当时的情况看计算机确实是有点“机关算尽”了。于是科学家们开始研究新的思路。在资源有限的情况下人是怎么办的?最典型的例子是种花、果时要打尖、疏果。因为植物的营养是有限的。不打尖、疏果就不能得到好的结果。围棋棋盘上的空间状态虽然多但是每个空间状态的价值是不同的。所以对变化的计算要剪枝。问题转化为应该剪除谁?
解决这个问题的就是蒙特卡洛算法和神经元网络的深度学习。
什么是蒙特卡洛算法?举个例子:有一个箱子里边有无数个苹果。想找出最大的。但是人从外边看不到苹果的大小。每次可以随机取出一个。然后和上一次的比较。大的留下。这样重复100次、1000次之后是什么结果呢?留下的不一定是最大的苹果,但一定是在目前最接近最大苹果的苹果。
和蒙特卡洛算法对应的是拉斯维加斯算法。也举个例子:还是,一个箱子里边有无数把钥匙。想找出能打开一把锁的钥匙。还是每次可以随机取出一把来试。打不开扔掉。这样重复100次、1000次之后是什么结果呢?有可能碰上了,但是不保证一定能碰上。
人下棋时是通过过往的经验来做选择。AI也是通过过往的经验找出最接近正确答案的值给每一个选择点赋值。而人们看到的是每着的胜率。
AI是怎么给每一个选择点赋值的呢?这就离不开神经网络和深度学习。人能思考的物质基础是人的神经网络。AI的神经网络系统就是仿生的结果。有了这个物质基础就有了机器学习。深度学习是机器学习的一部分。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力。深度学习是一个复杂的机器学习算法,又分为有监督学习和无监督学习。
老师留作业,学生做习题集。其实就是一种有监督学习。通过做题掌握了解题规律。于是考试时只要是做过的题型基本上多会做了。
现实生活中还常常会有这样的问题:缺乏足够的先验知识,因此难以人工标注类别或进行人工类别标注的成本太高。很自然地,我们希望计算机能代我们完成这些工作,或至少提供一些帮助。比如在没有计算机的情况下人通过对大量的数据长期观察思考,找到了克山病的原因。但是这个研究发现其规律的过程长达几十年。AI的无监督学习就是模拟人的这个学习过程。可以加快人们对未知事物的理解。
深蓝和阿尔法狗最初都是用人类的棋谱喂养的。比如战胜李世石的AlphaGoLee就大约喂了16万人类棋谱和数万个人类人类总结的模式(定式)。但是最后开源的AlphaGoZero则是从零开始通过“左右互搏”自己通过超过1亿对局自己悟出的围棋真谛。自学成才的AlphaGoZero水平不但远超AlphaGoLee,就连横扫千军的AlphaGoMaster也不是AlphaGoZero的对手。这就是职业棋手说的AlphaGoLee的棋还能看出高明的地方(因为有人类的影子),AlphaGoZero的棋则看不懂的地方。许多过去的共识被纠正。数以万计的定式被废弃。
说了这么多,就是说AI很有用也很厉害。比如在图像识别方面(在数万个摄像头的监控系统中找出嫌疑人)。比如在自动驾驶决策方面。AI都表现出超人的能力。
但是AI目前都是按照人类设定的规则运行和学习的。超出人类的规则就乱套了。比如2019年以前的围棋AI都是按照中国规则设计和训练的。如参加按照日韩围棋规则的比赛在局面仅好一目半目时会发疯(AI以为局面落后使出非常手段)。直到后来开发人员按不同规则修改了程序并按新条件训练AI。这个问题才得到解决。
最后回到为什么还无法证明数学猜想。简单说就是因为人类还没法给AI规定规则和学习方法。
在中国数学猜想里最有名的是《哥德巴赫猜想》。德国人哥德巴赫在1742年提出的两个猜想:(1)每个大于2的偶数都是两个素数之和;(2)每个大于5的奇数都是三个素数之和。中国数学家华罗庚、陈景润等对证明这个猜想做过重要贡献。
其实中国人很早也意识到这个问题。老子的《道德经》里:道生一,一生二,二生三,三生万物。为什么一、二、三就生万物?可以说也是意识到所有的数是由最基本的素数组成的。
但是意识到是一回事,证明是另一回事。人类还没有找出证明的规律。所以目前没有办法教AI训练。也许以后的人工智能进步了可以自己找出学习、思考的方法。但是目前现实中的AI还没有这个能力。
关于本次人工智能围棋如何练和人工智能围棋如何练技能的问题分享到这里就结束了,如果解决了您的问题,我们非常高兴。