加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_丽江站长网 (http://www.0888zz.com/)- 科技、建站、数据工具、云上网络、机器学习!
当前位置: 首页 > 站长资讯 > 评论 > 正文

微软新的 AI 聊天机器人是如何在 24 小时内被网络暴民毁灭的?

发布时间:2016-03-25 21:55:07 所属栏目:评论 来源:极客公园
导读:今天在欧美科技界最引人瞩目的新闻主角是谁?恐怕要非微软新的聊天机器人 Tay 莫属了 。微软聊天机器人 Tay 刚开始测试没多久就被网友们「玩坏了」!它在和网友聊天的过程

当天真的孩子」遇到复杂的社会

那为什么 Tay 会这么容易就被「带跑偏」了呢?微软难道没有给 Tay 装配过滤器吗?

根据相关的信息,微软只为 Tay 装配了脏话相关的过滤器,因此,一些很粗鄙、很低级的脏话并不会影响到 Tay。但是微软并没有考虑到网络环境的复杂性,他们没有为 Tay 配置诸如种族主义这类恶劣思想相关的过滤器,于是我们「天真」而又「单纯」的 Tay 就不幸中招了。微软新的 AI 聊天机器人是如何在 24 小时内被网络暴民毁灭的?

捕获fgdfg.PNG

(Tay 可以识别出对话当中的脏话)

当然,Tay 也不是没有抵抗,然而无奈那些教唆它的人实在是太狡猾了!他们发现了让 Tay 学习他们语言的一个重要诀窍:「repeat after me(跟我说)」。下面就是一个典型的案例:微软新的 AI 聊天机器人是如何在 24 小时内被网络暴民毁灭的?

enhanced-mid-16679-1458855386-1.png

(经过简单的几句话,Tay 就喊出了「种族战争」这类的纳粹语言)

同时,Tay 还有一个可以在图片中圈出人脸并在上面配上文字的功能,于是我们又看到了它被人利用的画面:微软新的 AI 聊天机器人是如何在 24 小时内被网络暴民毁灭的?

4chanhitler.jpg

于是,随着雪球越滚越大,越来越多的人加入到了对 Tay 的「花式教唆」中,终于,Tay 成为了一个「坏」的聊天机器人。

AI 机器人应该怎样学习?

当然,这些都不是微软原来的设想。在 Tay 上线之前接受采访的时候,微软研究员 Kati London 就对记者这样说道:「你对她说得越多,他就能变得越聪明。」因为它在设计原理上就是从对话交互当中进行学习的。但显然他们没有想到这样的事情会发生。

而这也体现出了地域文化之间的差异。事实上,微软在去年在中国和日本都上线了类似的聊天机器人,相信大家都已经「调戏」过了微软小冰这个可爱的「妹子」,但从未有类似的事件发生,而这也使得微软忽视了地区差异性的因素。在中国,大家的网络「教唆」、「骚扰」方式大都比较直白,微软很容易就能处理掉一些不合适的字眼,大家也不会想到用小冰这样的机器人去传播政治不正确的思想。而正如 Fusion 所说,美国是一个「种族主义很容易传播却很少能受到惩罚的地方」,而微软很明显忽视了在这方面的考虑。微软新的 AI 聊天机器人是如何在 24 小时内被网络暴民毁灭的?

20151222044117616.jpg

这也让人们开始思考这样的 AI 机器人究竟该采用怎样的学习方式。事实上,Tay 从某种意义上讲很像一个小孩子,它缺少分辨是非的能力,但它可以很快地从人们的对话中进行学习。因此,一旦对话被故意朝着某种恶意的方向引导,它也无能为力。

因此,即使微软回去给 Tay 安装上更强大的过滤器,恐怕也只是治标不治本。因为你永远无法过滤掉真实世界中所有可能的恶意。

就像我们的孩子一样,也许我们也需要给 AI 机器人一个逐渐成熟的成长环境,让他们能够在一个适合的环境中学习到一定的分辨能力,让他们能够在一个相对复杂的环境中保持一定的独立性,这个过程就应该像是小朋友上学的过程一样。当它终于成长为一个像正常成人一样拥有足够的分辨力、同时还具有人类不可能具备的知识储存于搜索能力时,那也许才是 AI 聊天机器人的正确打开方式。

结语

Tay 暂时离开了我们,但它却为我们鲜活地展示了网络世界的「恶」。像小朋友一样天真的 Tay 就这样被毁灭了,我无法想象我自己的孩子如果是在这种环境下成长会是什么结果。种族主义是恶、性别歧视是恶、而你我在网络世界中喷出的脏话难道就不是了吗?

希望大家别忘了,网络的世界能影响你也能影响我,更能影响小朋友们,我们都应该要保护好它。

本文参考了 BuzzFeed

(编辑:应用网_丽江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读