世界上大约有9个国家拥有核武器,美国和朝鲜之间的长期冲突正在酝酿核战争的威胁。美国总统唐纳德·特朗普在推特上讨论了这一问题,很快就爆发了关于核弹头的争论。全世界都在担心核战争,但前总统内阁顾问埃隆·马斯克认为,人工智能的威胁比核武器大得多。
著名的投资者和商业巨头埃隆·马斯克(Elon Musk)多次提到人工智能将给人类带来的问题。
最近,他说这比核战争还要糟糕。
如果你不担心人工智能的安全,你应该担心。比朝鲜的风险大得多。pic.twitter.com/2z0tiid0lc
——埃隆·马斯克(@elonmusk)2017年8月12日
听起来像个笑话?不,它不是。你可能会认为OpenAI和Neuralink等组织的创始人会避免说这样的话。然而,马斯克希望监管人工智能。他继续说,
没有人喜欢被监管,但所有对公众构成危险的东西(汽车、飞机、食品、毒品等)都受到监管。AI也应该如此。
——埃隆·马斯克(@elonmusk)2017年8月12日
马斯克担心的第一颗炸弹是《权力的游戏》的笑话:
埃隆·马斯克:AI:约翰·斯诺:异鬼
——杰森·托夫(@jasontoff)2017年8月12日
有些人可能认真对待这条推文,但其他人认为这是橙子和苹果的比较。
把目前的核危机比作未来的机器危机似乎不太合适。
——奥斯汀·布劳恩(@AustinOnSocial)2017年8月12日
并不是要破坏人工智能的问题,因为这是一个真实的问题,但没有人在猜测人工智能对朝鲜目前的危险的危险。
——奥斯汀·布劳恩(@AustinOnSocial)2017年8月12日
最后,这个问题仍然是一个可笑的事情,因为AI仍然是一个可爱的幼儿,不是吗?
我同意。Adobe Illustrator对公众是一种危险
——艾伦·帕特森(@tenderlove)2017年8月12日
斯坦福大学机器学习专家兼兼职教授、科技公司Matroid首席执行官雷扎·扎德(Reza Zadeh)仍然认为,相对而言,武器是更大的威胁,他在推特上写道:
在可预见的未来,人工智能本身不会对人类构成危险。AI和武器的结合,也许吧。所以,管制武器,而不是AI
-礼萨·扎德(@Reza_Zadeh)2017年8月12日
扎德从马斯克那里得到了一个非常贴切的回答:
认识到人工智能危险的最大障碍是那些对自己的智能如此确信的人,他们无法想象有人能做他们不能做的事情
——埃隆·马斯克(@elonmusk)2017年8月12日
在我们开始讨论世界面临的最大威胁之前,我们可能只想看一看我们的星球即将面临的灾难清单。核战争、气候变化、人工智能,随便说!从这个致命而可怕的列表中选择一个不是一件容易的任务。