b谷歌首席执行官桑达尔·皮查伊表示,他不明白人工智能如何艰难地学会一门没有接受过训练的语言

广告

随着我们对这一领域的深入研究,人工智能的极限一直在被延伸。然而,当我们经过不熟悉的领域时,我们会遇到无法预料的困难,迫使我们停下来重新评估我们的进展。b谷歌的新人工智能程序Bard刚刚曝光了一个这样的问题。

b谷歌首席执行官桑达尔·皮查伊最近承认,他并不完全了解巴德是如何运作的。这个程序自学了一些不可预见的技能,皮查伊称之为“涌现属性”。这一发现令人担忧,尤其是在巴德被公之于众之后。

更令人不安的是,巴德被观察到有一种叫做“幻觉”的现象。这是指程序生成的信息完全是假的或不存在的。例如,巴德写了一篇关于经济学中的通货膨胀的文章,并推荐了五本关于这个主题的书,但这些书都不存在。这是一个令人担忧的迹象,表明人工智能并不总是可靠的。

该领域的专家已经对这些问题发出了警告,其中包括埃隆·马斯克(Elon Musk),他主张暂停开发比OpenAI最近发布的GPT-4更强大的人工智能系统,暂停六个月。尽管这是一个冒险的举动,但我们在创造人工智能时必须谨慎行事。

为了确保它们的影响是积极的,它们的危害是可控的,我们需要确保生成的任何强大的人工智能系统都经过广泛的测试。在推进人工智能领域的过程中,我们必须小心,不要走在自己前面,要记住,我们的决定可能会产生广泛的影响。

总之,巴德的出现及其意想不到的技能强调了道德AI系统开发的重要性。随着我们进一步探索人工智能世界,我们必须注意潜在的风险,并采取措施减少风险。我们有责任确保我们创造的人工智能对整个社会是安全的、有用的、有益的,而不是有害的。

广告

留言回复

您的电子邮件地址将不会被公布。必填项被标记*