拟脑吴义坚 : 机器人这个行业还很初级,AlphaGo还只是弱人工智能
下面我具体讲一下谷歌的AlphaGO,比赛我相信大家都看了,相关的论文和报道在网上都有了。我再简单地讲一下它的原理,里面涉及到两块,左边这一块就是传统的机器学习,已经有大量高手对决棋谱样本在那儿了,就像我们大量的语音和图像数据。还有一个部分就是它学成模型后自己跟自己对弈,然后可以调一组参数,对弈完之后如果发现这个更好,就去加强,往这个方向去调整。就像你每天自己练,可以发现某一招更好。机器的学习速度是很快的,这个就是它比人类强的地方,因为人类高手棋谱几万或者几十万就不得了,但是他自己跟自己对弈可能有上亿盘那么多。 大家知道为什么围棋难下呢?中国象棋是比较容易用人工智能模拟的,因为它的目标比较清晰吃掉帅就算赢了,而且象棋落子的可能性也少很多。但是在围棋上面是不行的,围棋的变化可能比地球上所有沙子的数目加起来还多。其实业界拿围棋做一个实验场地优化人工智能算法已经有五到十年了,原理比较简单,就是局部分析和全局分析。局部分析就是下棋的时候可以算一个局部最优,因为局部的空间比较小。另一方面下围棋时全局观非常重要,所以谷歌用DNN做了另外一个事情,可以评估出当前做法在全局上的获胜概率是多少。通过这两种方式,就兼顾了局部最优和全局最优。 围棋每一个点可能对应的是两百种可能,两百种以内选一种下法的意思是在输入端相当于下法,输出点是每一种下法对应来做一个最优的选择。在这个系统里面,每一个可能的落子点都算过得分。 AlphaGo的人工智能和别家有什么样的区别? 我们的语音数据一般要几千个小时,甚至要上万个小时才能训练出一个性能还不错的神经网络。围棋方面我觉得高手的棋局没有那么多,AlphaGo应该更多的是通过后面自学习的方式提高的。当然前提是先通过已有棋局训练出一个不错的系统。 AlphaGo的训练具体是指什么? 训练的是所有神经网络的参数。 首先调参数并不是人在调,人调整的只是策略,比如定义多少层网络,用什么样的训练策略。但是具体神经网络里面的参数,现在没有人能解释几百万上千万个参数具体有什么意义,它有点像一个黑盒子。在传统的统计模型里面,概率分布是很好解释的,比如说老人跟小孩子的声音为什么不一样,因为它频谱这边有一个共振峰,在那个位置有一个高低分布,都有一个物理解释。 DNN里面的参数是没办法解释的,但是它确实很强大,这就像我们无法解释人脑一样的。 宏博说他一开始低估了AlphaGo,觉得它肯定下不过李世石,因为研发团队里并没有顶级围棋高手给它做策略指导,虽然可以借鉴大量的历史棋局,但是单纯地模仿高手下法或许可以达到职业初段选手的水平,真正面对顶尖职业高手时必然会出现应变不足的情况,因为围棋的变化实在是天量的,运算能力再强也无法穷尽,对目前依靠机器深度自我学习是否能达到顶尖职业棋手水平还抱怀疑态度。 实际从第一局棋看来,AlphaGo有一些下法我们国内的一些顶尖的高手都没有想到,赛后谷歌的工程师也说到AlphaGo现在已经不再依赖棋谱,它已经把围棋游戏规则和基本套路完全吃透,实现了以获胜为目标严格按照策略和价值模型自我学习自我优化,即人工智能的增强学习概念,这个是AlphaGo真正可怕的地方,后面随着模型不断优化进步人类选手将越来越难以战胜它了。 谷歌强就强在使机器可以做基础的学习。 AlphaGo可以自我对弈,然后找到更好的策略,而且它的进化速度远比我们人快。但是这里我要稍微说明一下,深度学习更多的是一种抽象的概念,就是不要学表面的,而是学深层的。深度神经网络也是深度学习的一种体现,也是目前大家都在用的。其实反过来说,虽然AlphaGo在围棋上面很可怕,但其实它离真正人类的学习还是差很远的,或者说它还是在做模式识别或者模式训练,虽然它有一些自我学习的概念,但只是一个很小的单一目标任务上的训练,或者说参数的优化。这个还不是真正意义上说的概念认知,甚至说AlphaGo都不知道下棋这个概念,对它而言下棋只是一个任务、一个目标。我觉得AlphaGo离我们真正的人工智能或者智能学习还是很遥远的,它只是一个非常初级的阶段。 回到语音这一块,大家可以看到整个语音的发展历史是很慢的,前后差不多有30年都是徘徊在识别率突破不了90%的水平,而人类在各种环境的识别率达到98%或99%以上。目前的语音识别差不多在安静环境下面识别率可以接近95%,其实更多的是在各种环境下面。在复杂的环境下面,现在的语音识别准确率还不高,不管是噪声环境,或者有口音,甚至语速过快的情况,在更复杂的环境更不要说了。 另外说一下语音合成,它是把输入文字变成声音,科大讯飞最早就是做语音合成出来的。语音合成大家感觉在某种场合下可以用,比如播天气预报或者播语音导航,这些都是合成技术,听着没有什么问题。再往后,比如朗读小说等绝大部分也还可以接受。但是到对话聊天,比如陪伴机器人,声音传递的信息除了文字以外还有情感、情绪、个性,目前来看语音合成还很难满足需要。 语义分析就更难了,只是从技术层面上讲,分析一些特定领域的东西是可以的,比如打电话给某某,不管原来传统的基于规则的,还是基于统计的,基本上都可以做得很好。但是开放式的语义理解就会非常困难,尤其是一些新的概念。目前大家看到的语义分析也好,包括AlphaGo的理解,机器还是属于非常初级的阶段,都是人预先设定告诉它这是什么东西,而不是它自身能自我从这里面能学习到的,所以更多的是训练而不是叫学习。 (编辑:应用网_丽江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |