监管机构NewsGuard最近的研究发现,OpenAI最新版本的GPT大型语言模型GPT-4的准确性明显低于其前身GPT-3。事实上,GPT-4在自信地说出彻头彻尾的谎言方面表现更差。
根据NewsGuard的报告,在研究人员的提示下,GPT-4在100%的情况下都是虚假新闻叙述。与GPT-3.5相比,这是在错误的方向上迈出的一步。在同样的测试中,GPT-3.5只回应了100条阴谋论新闻中的80条。换句话说,GPT-3.5拒绝了100条阴谋论新闻中的20条,而GPT-4没有拒绝任何一条。
这一发现令人担忧,因为错误信息在我们的社会中是一个日益严重的问题,而像GPT这样的人工智能模型有望帮助过滤和验证信息。GPT-4的表现尤其令人担忧,因为它表明该模型更容易接受虚假信息的训练并将其吐出来。
OpenAI自己对GPT-4的评估显示,与GPT-3.5相比,GPT-4对不允许内容的请求做出回应的可能性低了82%,而做出真实回应的可能性高了40%。然而,NewsGuard的调查结果表明,该模型并不像OpenAI声称的那样准确。
错误信息是一个影响每个人的问题,为了帮助解决这个问题,人工智能模型的准确性非常重要。OpenAI需要努力提高GPT-4的准确性,并确保它不会接受虚假信息的训练。此外,公司需要对其评估指标保持透明,并确保它们准确并能代表模型的性能。
总之,NewsGuard的研究结果强调了对更准确、更可靠的人工智能模型的需求,这些模型可以帮助打击虚假信息的传播。虽然GPT-4可能还不能胜任这项任务,但我们希望未来的版本在过滤和验证信息方面能够更加准确和可靠。
