亚马逊的内部机器学习系统因对女性求职者存在偏见而被放弃。与男性求职者相比,该软件一直在下调女性求职者的评级。
该项目是为了加快招聘过程而引入的。然而,当该公司意识到该软件并没有产生性别中立的结果时,它进行了修改以消除这种偏见。但是,由于不能保证其他这个项目并没有受到偏见的影响,去年整个项目被取消了。
我们应该意识到,人工智能系统是基于历史数据的,因此它们经常延续现有的偏见也就不足为奇了。因此,由于输入人工智能系统的数据存在偏见,对女性的偏见一直存在。根据路透,
亚马逊的项目会对就读女子学院的申请者以及任何含有“女子”一词的简历进行处罚(就像“女子象棋俱乐部”中的词组一样)。