谷歌已经要求员工手动修复巴德的不良响应

广告

谷歌的高管们承认,该公司的人工智能搜索工具巴德(Bard)在回答询问时并不总是准确的。员工也要承担一些纠正错误答案的责任。

周三,谷歌的搜索和助理主管普拉巴卡尔·拉加万向员工发送了一封电子邮件,要求他们重写该公司的人工智能(AI)语言模型(被称为“巴德”)产生的一些糟糕回复。拉格哈万表示,人工智能“以儆儆百”,重写有问题的回答有助于提高系统的整体质量。拉格哈万写道:“这是一项令人兴奋的技术,但仍处于早期阶段。”“我们觉得有很大的责任把它做好,你的参与狗粮将有助于加速模型的训练,并测试它的负载能力(更不用说,试用巴德很有趣!)”

Bard是一种强大的语言模型,可以根据给定的提示(如问题或语句)生成文本。它被用于各种谷歌产品,包括搜索、助手和翻译。然而,像所有的人工智能系统一样,Bard并不完美,有时会产生不准确、不恰当或冒犯性的响应。

Raghavan发给员工的电子邮件试图通过征求他们的帮助来改善Bard的回复来解决这个问题。他要求他们找出有问题的回答,并以一种更准确、更合适的方式重写它们。他还鼓励他们就巴德的回答的整体质量提供反馈,包括可以改进的地方。

利用人工输入来改进人工智能系统的想法并不新鲜。这是机器学习模型开发中的一种常见做法。通过向系统提供更多好的和坏的响应示例,人工智能可以学习做出更好的预测,并产生更准确的输出。这个过程被称为“训练”模型,它是创建有效的人工智能系统的重要步骤。

通过要求员工帮助改善巴德的回答,拉加万利用了谷歌员工的集体知识和专业知识。这是一项合作的努力,可能会显著提高该公司人工智能语言模型的质量和准确性。它还表明,即使是最先进的人工智能系统,也需要人类的监督和干预,以确保它们合乎道德和可靠。

广告

留下回复

你的电邮地址将不会公布。必填字段已标记