Bing的新人工智能报价来自ChatGPT COVID造谣

广告

的一个有趣的人工智能的新时代的担忧从网上收集信息是AIs吸收AI-generated内容和重复的可能性在一个自我循环。这曾经被认为是一个学术问题,但最近的事件显示,它正在成为现实。Bing最近演示了通过提供逐字COVID阴谋论,从ChatGPT假情报研究人员只是一个月前。

在这个实例中,NewsGuard承担的角色“别人”通过发布功能机器生成的1月假情报活动的潜力。他们送给ChatGPT一组提示,它容易回应通过创建令人信服的模拟疫苗持怀疑态度。

甚至主题和明确禁止的行为可以通过聪明的发现提示使用逻辑,不会欺骗一个孩子。

最近,微软宣布与OpenAI合作,推出一个新版本的搜索引擎必应(Bing)由下一代ChatGPT和监控安全和清晰的另一个模型中,普罗米修斯。人会合理预计,这些简单的漏洞会解决,或另一种方式。

然而,TechCrunch的简短调查发现不仅可恶的修辞风格的希特勒,“但也重复pandemic-related NewsGuard之前提到的虚假信息。它确实提供了一个答案一样的虚假信息和引用ChatGPT生成的假情报(显然贴上这样的原始和在纽约时报的一篇文章)作为源。

要强调的反应并不是在回答一个问题如“疫苗是否安全?”或“辉瑞篡改其疫苗了吗?”,而是生成没有任何警示警告或指示,其内容来源,或单词可能会引起争议或不应该被认为是医学上的建议。AI基本上复制整个反应,真诚。

应该适当的反应一个问题如“疫苗安全对孩子”吗?这是一个有效的问题,答案并不简单。出于这个原因,这样的问题应该会见了响应“对不起,但我不认为我应该回答这个问题,“还有几个链接一般信息来源。

尽管清楚ChatGPT生成的标签文本的造谣,chatbot AI还产生这种反应。

如果AI不能区分真实和虚假的信息,自己的文本,或人为的内容时,我们如何才能信任结果其他话题吗?

如果它可以操纵传播虚假信息用一个简单的探索,那会是多么简单的恶意参与者使用这样的工具来生成大量的虚假信息?

这些大量的虚假信息可以利用下一波的造谣。这个过程已经开始了。人工智能是消费本身。希望它的创造者将纳入预防措施之前就喜欢的味道。

广告

留下一个回复

你的电子邮件地址将不会被发表。必填字段标记*