当AI杀死时,谁承担责任?法院很快将不得不回答这个问题

广告

AI充满所有好处,为普通百姓和政府官员带来了许多问题。例如,如何处理特斯拉的自动驾驶功能发生的所有崩溃和事故。谁负责谁,谁应负责,谁在法院,所有者或开发商中负责?加利福尼亚陪审团可能很快就必须决定。

AI挑战常规责任规范。例如,当“黑匣子”算法(没有人知道计算或预测中的什么)建议在医疗领域中进行治疗,该算法最终造成伤害或疯狂驾驶汽车在其人类驾驶员可以在其人类驾驶员的能力之前驾驶汽车时,我们如何使任何人承担任何责任反应?那是医生或驾驶员的错吗?是塑造AI错的公司吗?如果他们鼓励采用,其他所有人(保险公司,保险公司,制造商,监管机构)应采取什么责任?这些是需要回答的问题,并且在r =早期时间内也是为了确定对消费产品中AI的负责使用。

像所有不守规矩的技术一样,AI也很强大。如果适当创建,监视和测试,AI算法可以帮助诊断,市场研究,预测分析以及任何需要分析大型数据集的应用。麦肯锡的全球调查表明,全球已有超过一半的公司在其常规运营中使用了AI。

然而,责任常常集中在最简单的猎物上:最终用户。结果,责任查询通常从撞车的驾驶员或做出错误治疗决定的医师开始并结束。

可以理解的是,最终用户会不时发出警告并发出通知,以做出正确和及时的决定。话虽如此,AI错误通常不是最终用户的错。谁能指责急诊室医生的AI算法,该算法错过了乳头状果皮 - 视网膜肿胀?人工智能未能检测到病情可能会延迟护理并导致患者失明。毫无疑问,AI具有巨大的潜力,如果最终用户是唯一要承担责任的用户,它将妨碍AI的实用性。

关键是要确保所有利益相关者(用户,开发人员和其他从产品开发到使用的链中)都足够负责,以确保AI的安全性和有效性,但并不是他们放弃AI。

我们提出了三种改造传统责任框架的方法。

首先,保险公司必须保护保单持有人免受因AI伤害而被起诉的不成比例的成本。独立的安全系统可以为AI投资者提供可预测的责任系统,以适应新技术和方法。

其次,应在特殊法院起诉一些AI错误,该法院在仲裁AI案件方面具有专业知识。例如,在美国,专业法院通过裁定疫苗伤害并发展了对该领域的深刻了解,从而保护了儿童疫苗制造商数十年来。

第三,美国食品药品监督管理局(FDA)或NHTSA等联邦当局的监管标准可能会抵消开发商和一些最终用户的剩余责任。例如,联邦法规和立法取代了医疗设备或农药的某些形式的责任。监管机构应该认为某些AIS的风险太大,无法在没有测试,重新测试或验证标准的情况下引入市场。

用过时的责任系统阻碍AI是不公正的。自动驾驶汽车是未来,并为许多需要运输访问的人提供流动性。AI将帮助医生选择更有效的疗法并改善医疗保健方面的患者结果。从金融到网络安全各不相同的行业正处于AI革命的边缘,这些革命可能受益于全球数十亿美元。但是21世纪的AI需要21世纪的责任系统,以便可以从AI中获得最大的收益。

广告

发表评论

您的电子邮件地址不会被公开。