社交账号登录

社交账号登录

0/34

上传头像

拖拽或者缩放虚线框,生成自己满意的头像

头像

预览

忘记密码

设置新密码

智能

马斯克又谈人工智能威胁论,说这比朝鲜更可能引发世界大战

马若飞2017-09-05 18:54:13

他认为人工智能如果拥有决策权,会比核武器更加危险。

本周末,朝鲜在咸镜北道峰溪里进行了第六次核试验。朝鲜宣称,这次试验成功发射了一枚氢弹。

按照美国和韩国地震监测机构的数据,这次引发 6.3 级地震的核试验,确实是朝鲜有史以来威力最大的核武器试验。朝鲜官方新闻随后称,这是一枚氢弹,而且可以安装在洲际导弹上。

但特斯拉和 SpaceX 的老板,人工智能中立研究组织 OpenAI 的伊隆·马斯克依然不认为核武器是现今世界最大的安全威胁。

昨天他在 Twitter 上转发了一条关于俄罗斯总统普京的文章。文章转述了普京的讲话,说“无论对俄罗斯还是全人类,人工智能就是未来。它同时带来巨大的机遇与难以预测的威胁。谁领导人工智能谁就将主宰世界。”

马斯克转发这条文章,评论说:中国、俄罗斯等等所有计算机科学技术厉害的国家都会着力研发人工智能,这是最有可能导致第三次世界大战的因素——国家层面的人工智能军备竞赛。他后续又发了一条 Twitter 解释说,所谓引发第三次世界大战的危险,是说人工智能可能会拥有超越人类领导人的决定权,对敌国发动先发制人的攻击。

这不是马斯克第一次发表类似的观点。最近的一次意见表达是在 8 月初,他说了很接近的话:“人工智能比朝鲜核武器更危险。”

即使现在的科技领袖们对人工智能究竟是不是文明的威胁已经分成两派,有一些人,比如比尔·盖茨、霍金,他们和马斯克一样对人工智能持担忧态度,但盖茨等人的担心远远没有马斯克那么“极端”。

马斯克假设的人工智能发动世界大战必须建立在一个前提之下,就是军事大国,尤其是核武器拥有国的军事指挥和执行系统由人工智能接管,进而自己决定动武——比如美国人工智能擅自对俄国发起攻击。

但是就目前来说,整套系统还是完全依靠人类运行。

在 1990 年代,中国大陆义务教育阶段有一门课叫做人防工程,里面核武器防护有一条描述现在看来甚至有点有趣:当看到核武器爆炸闪光的时候,请迅速卧倒趴下,头朝着背向爆炸中心的方向。

末日生存游戏《辐射》系列的吉祥物避难所小子,是一个伸出手竖起大拇指的形象,这个形象有一个衍生的解读,是说当你伸出的大拇指能够遮住核爆炸引起的蘑菇云时,说明你暂时是安全的。

当然以现在人们聚集在城市的程度,以及核武器 5 千吨到 50 万吨不等的当量,这两个逃生办法都不靠谱。如果人工智能未来有一天真的成为人类文明的重大威胁,不知道会不会有“AI 防护工程”这样一门课教给小孩子,内容也许会是“不要联网”也说不定。

不过至少现在来看,朝鲜还是比人工智能更加难以预测。


题图/Wikipedia

喜欢这篇文章?去 App 商店搜 好奇心日报 ,每天看点不一样的。