加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_丽江站长网 (http://www.0888zz.com/)- 科技、建站、数据工具、云上网络、机器学习!
当前位置: 首页 > 综合聚焦 > 编程要点 > 资讯 > 正文

Google找来两个AI坐在一起玩游戏 他们会合作还是打架?

发布时间:2017-02-15 16:39:15 所属栏目:资讯 来源:36氪
导读:--> 相信自从阿尔法狗战胜人类之后,不少人想干脆两个人工智能直接对决算了。 Google的Deepmind团队还真的做了一件类似的事,不过设置有点稍稍不同,这源于试验的目的并不是要找哪个人工智能玩围棋更腻害,而是,人工智能在特定的有些规则环境下,究竟是会

-->

  相信自从阿尔法狗战胜人类之后,不少人想干脆两个人工智能直接对决算了。

  Google的Deepmind团队还真的做了一件类似的事,不过设置有点稍稍不同,这源于试验的目的并不是要找哪个人工智能玩围棋更腻害,而是,人工智能在特定的有些规则环境下,究竟是会合作还是竞争?

  

Google找来两个AI坐在一起玩游戏,他们会合作还是打架?

 

  毕竟,未来人工智能在这个社会中,要处理的事情可能很多,小到指挥交通,大到国家的经济运行,可能都有人工智能的参与。然而人类发展的历程告诉我们,有时候合作也许才是对大家最好。

  为了探讨这个问题,DeepMind做了个实验,说将几个AI机器人置于一系列的“社交困境”中,在这些情况下,个人可以从背叛他人中获利,但如果所有人都那么自私,那就没有赢家。这是不是让你想起了诺贝尔奖得主纳什提出的“博弈论”里面的“囚徒困境”?

  Deepmind做实验的方法就是……让这些AI们一起玩两个简单的电子游戏。

  第一个电子游戏叫“捡苹果”,两名玩家要在中间的一道管子上收集苹果,谁捡的苹果多谁赢。同时他们都有一个技能,通过用激光来阻碍对方的行动,让对手暂时在游戏中消失,前者就又机会收集更多的苹果了。

  第二个游戏叫“狼群”,两名玩家需要在一个充满困难和障碍的环境中捕猎一只猎物。不过不仅是抓道猎物那名玩家可以得分,而是当猎物被捕时,所有靠近猎物的玩家都可以得分。

  实验结果略有趣,但是不算意外,这些人工智能都会根据不同的情景和规则,调整他们的行为方式,时而合作时而敌对。

  比如,在“捡苹果”游戏中,当苹果数量很充足的时候,这些人工智能似乎懒得去动手阻碍别人,而是努力在自顾自地捡苹果。然而当苹果的总数逐渐减少,他们使用激光技能的次数也开始增多了。文科生大概开始在YY各种什么人在极端情况下展现最真实的人性,还有什么马克思的原始共产主义社会理论被打破之类的……

  但这是一个机器人,接下来的事情就更有趣了,当引入一个运算能力更强的人工智能时,他却倾向于无论剩下多少苹果,都会去阻碍对手。似乎更聪明的AI展现出来的是,在这个游戏中,什么时候都要好斗。

  不过这是不是就是意味着,AI认为,阻碍别人就是最好的战略呢?不一定哦。

  研究人员认为,更高级的人工智能在游戏中使用激光的次数更多,有可能只是因为发激光这个动作更难。AI需要把武器瞄准目标,通过跟踪它们的踪迹,这样的举动需要更多的运算能力,而且还会占用宝贵的捡苹果时间。所以除非玩家觉得发激光划得来,否则他大概会乖乖一起捡苹果。

  那么在“狼群”游戏中又如何?

  这个游戏的情况则恰恰相反,更聪明的AI,在这个游戏里更倾向于和其他玩家合作。研究人员解释,这也是因为跟其他玩家一起追踪和围捕猎物,要求用更多算力……

  不得不说,不同级别的机器人模式转变的理由,真是十分实在。即便AI展现出来的合作与好斗的程度,跟他们的“能力”有关,但无论如何,研究结果都说明,人工智能的行为模式会随着它们所面临的规则而变。如果游戏规则鼓励的是好斗的行为,也就是说你要好斗才能拿高分,AI会变得好斗;如果游戏规则鼓励合作行为,那他们会表现得更为合作。显然上面的游戏中,第一个捡苹果的游戏更像一个零和博弈,你捡的苹果多了我的就少;第二个则像正和博弈,合作时双方或至少一方的利益会增加,也就是整体利益会增加。

  这也告诉告诉了人工智能研究的相关人员,未来在涉及多个AI交互的场景中,确保制定的“游戏规则”适当,是控制AI行为很重要的部分。就像研究人员在博客中写道:

  这个实验之后,我们似乎更能理解与控制多方参与的系统,比如经济运行、交通系统,或者地球生态健康的维护,这些都依靠我们持续的合作。

  如果把上述游戏中的AI换成人,得出的结论很像社会心理学的基本假设,倾向于将人的行为模式归结到环境变化。然而人的不可控性在于复杂的七情六欲,还有内心奇怪的心理阴影面积,都会影响他的选择。对于机器而言,还没有性格可言,在同一环境下的不同行为,变量仅是运算能力。

  也许囚徒困境不会是个问题,因为即便信息不对称,只要你给我足够的算力,我可以算出合作是最优解。但人呢?即便智商够高,也不一定能相信坐在隔壁的人不会背叛我。

  不过如果出现了《西部世界》的情况,机器人有了记忆和意识,不知道他们还会不会纯粹靠智商思考?

(编辑:应用网_丽江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读