加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_丽江站长网 (http://www.0888zz.com/)- 科技、建站、数据工具、云上网络、机器学习!
当前位置: 首页 > 站长资讯 > 动态 > 正文

霍金再发警告:人工智能可能通过核战争摧毁人类

发布时间:2017-03-18 02:18:16 所属栏目:动态 来源:用户投稿
导读:站长之家(Chinaz.com) 3 月 14 日消息 人工智能在能给人类带来各种便利的同时,也有很大的可能带来威胁。近日,霍金再次发出警告,表示人工智能可能通过核战争或生物战争摧毁人类。 据外媒报道,霍金近日表示,自从人类文明形成以来,来自生存能力优势群体

blob.png

站长之家(Chinaz.com) 3 月 14 日消息 人工智能在能给人类带来各种便利的同时,也有很大的可能带来威胁。近日,霍金再次发出警告,表示人工智能可能通过核战争或生物战争摧毁人类。

据外媒报道,霍金近日表示,自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。因此人类需要利用逻辑和理性去控制未来可能出现的威胁。

那么是不是说,霍金本人反对人工智能的存在呢?实际上他是人工智能技术的支持者,霍金认为,如今AI似乎已经渗透到各个领域,并推动了社会的发展。只不过,霍金考虑的更为长远,认为“人工智能将会威胁人类”,而人类必须建立有效机制尽早识别威胁所在,防止人工智能对人类带来的威胁进一步上升。


相关文章:

  • 霍金发表新言论,人工智能可能要比我们想象的还厉害?
  • 霍金:人类在地球上存在时间难以超过1000年
  • 霍金:警惕Al! Al真的会取代人类吗?

(编辑:应用网_丽江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读