诺姆·乔姆斯基说聊天机器人是“机器学习的奇迹”,但也是邪恶的平庸

广告

著名语言学家诺姆·乔姆斯基最近与语言学教授伊恩·罗伯茨和人工智能研究员杰弗里·瓦图穆尔合著了一篇文章,他对人工智能对人们独立思考和创造能力的潜在影响表示怀疑。

虽然乔姆斯基承认,OpenAI的ChatGPT、谷歌的Bard和微软的Sydney等人工智能语言模型具有令人印象深刻的能力,但他认为,在推理和道德方面,人工智能仍有很大的局限性,这使得它成为“平庸的邪恶”的一个例子。

乔姆斯基指出,人工智能缺乏基于现有信息进行推理并得出新的、有洞察力的结论的能力,而这正是人类智能的标志。与人类不同的是,人工智能不能辨别准确性,也不能判断它刚刚说的是真的还是假的,也不能判断用户想听到的是什么。根据乔姆斯基的说法,无法进行批判性推理也可能是人工智能改善人类生活能力的最大绊脚石。

“不仅要说现在是什么情况,过去是什么情况,将来会是什么情况——这是描述和预测——还要说什么不是这样,什么可能是这样,什么不可能是这样。这些是解释的成分,是真正智慧的标志,”乔姆斯基写道。

乔姆斯基还强调,人工智能的当前状态意味着它无法进行那种导致科学、文化和哲学重大突破的艰难对话。例如,ChatGPT必须避开道德上令人反感的内容,才能为大多数用户所接受。

乔姆斯基认为,人工智能需要被赋予能力,以产生新颖的有用输出,但也必须限制它做出可能危险的自由决定。

尽管存在局限性,但ChatGPT等人工智能语言模型由于能够通过挖掘大量数据来生成连贯的对话而受到用户的欢迎。然而,人工智能的不准确和道德缺失可能会助长阴谋论的传播,并导致对个人和社会都有危险的强制性决策。

乔姆斯基的文章得出结论,对流氓人工智能的恐惧意味着它可能永远无法做出理性的决定,也无法参与道德争论,这可能会限制它对我们生活的影响。ChatGPT缺乏创造力和道德,可能意味着它仍然是一个玩具和偶尔的工具,而不是我们生活的重要组成部分。

“ChatGPT展示了一些邪恶的平庸:抄袭、冷漠和回避。它以一种超级自动补全的方式总结了文献中的标准论点,拒绝在任何事情上表明立场,不仅以无知为借口,还以缺乏智慧为借口,最终提供了一种‘只是服从命令’的辩护,将责任推卸给了它的创造者,”乔姆斯基写道。

虽然人工智能语言模型已经显示出令人印象深刻的能力,但乔姆斯基的怀疑主义强调了人工智能在批判性推理和道德方面的局限性。随着人工智能的不断发展,解决这些限制将是至关重要的,以确保人工智能能够成为我们世界中一股向善的力量。

广告

留下回复

你的电邮地址将不会公布。必填字段已标记