这位Google DeepMind研究人员共同撰写了一篇论文,称AI将消除人类

广告

牛津大学和Google DeepMind在同行评审的AI杂志上指出,由于AI的存在,对人类的存在灾难正在发生。

当今最成功的AI模型称为GAN或生成对抗网络。他们具有两部分的结构,该程序的一个部分试图从输入数据中生成图片(或句子),第二部分正在对其性能进行评分。新论文提出,在将来的某个时候,可以激励一个高级的AI监督一些重要功能,以提出作弊策略,以损害人类的方式获得奖励。

“在这种情况下,我们已经确定,我们的结论比以前的任何出版物的结论要强得多 - 存在的灾难不仅有可能,而且可能是可能的,”科恩在Twitter上在有关论文的话题中说。

“在一个拥有无限资源的世界中​​,我将对发生的事情极为不确定。在一个有限资源的世界中​​,这些资源不可避免地竞争。”科恩在接受《母板》采访时说。“而且,如果您与能够随时随地击败您的事情竞争,那么您就不应该期望赢得胜利。另一个关键部分是,它对更多能量的胃口将不满意,以使概率越来越近。”

“从理论上讲,比赛没有意义。任何种族都将基于我们知道如何控制的误解。”科恩在采访中补充道。“鉴于我们目前的理解,除非我们现在做一些认真的工作来弄清楚我们将如何控制它们,否则这不是一件有用的事情。”

歧视并非出现在算法中,而是结构和限制,并为生活的发展方式提供了信息。

现在有很多工作要做,以减少或消除普通算法(与超级智能的算法)正在对人类造成的危害。专注于存在的风险可能会将重点转移到这张照片上,但它也要求我们仔细考虑这些系统的设计以及它们产生的负面影响。

科恩说:“我们可以从这种论点中学到的一件事是,也许我们应该对今天部署的人造代理人更加怀疑,而不仅仅是盲目期望他们会做自己希望的事情。”“我认为没有本文的工作就可以到达那里。”

广告

发表评论

您的电子邮件地址不会被公开。