大型科技公司匆忙推出人工智能聊天机器人,极有可能破坏互联网的信息生态系统。下面的例子已经证明了这一点。
目前,如果你问微软的必应(Bing)聊天机器人谷歌的巴德(Bard)聊天机器人是否被关闭,它会以一篇新闻文章为证据,给出肯定的回答。这篇文章讨论了一条推文,一名用户询问巴德何时会被关闭,巴德回应说已经关闭了,并引用了黑客新闻(Hacker News)上的一条评论,其中有人拿它开玩笑,还有人利用ChatGPT捏造了有关此事的新闻报道。
必应已经修正了答案,现在承认巴德仍在运行。这可能表明这些系统在某种程度上是可纠正的,也可能表明它们具有很大的可塑性,以至于很难准确地一致地报告它们的错误。
我们所看到的是一个早期迹象,表明我们正在玩一场人工智能错误信息电话的危险游戏。聊天机器人正在努力识别可信的新闻来源,误解有关它们自己的文章,并提供有关它们能力的不准确信息。
整个崩溃始于黑客新闻上的一个笑话评论。试想一下,如果有人故意让这些系统失灵,会发生什么。
这可能看起来很滑稽,但潜在的后果是严重的。人工智能语言模型无法区分事实和虚构,会传播错误信息和不信任,从而危及互联网。这种瘴气不可能被完全描绘出来,也不可能被彻底揭穿。这一切都是因为微软、谷歌和OpenAI更重视市场份额而不是安全性。
公司可以给他们的聊天机器人添加尽可能多的免责声明,给它们贴上“实验”、“合作”的标签,当然也不是搜索引擎。然而,这是一个站不住脚的辩护。我们知道人们如何使用这些系统,我们已经目睹了他们如何传播错误信息。它们产生了从未存在过的新故事,或者传递了关于不存在的书籍的信息。现在,他们甚至引用彼此的错误。
