人工智能渗透日常生活,几乎无人监管

2024-03-06

人工智能可以通过它所训练的数据,通常是历史数据来学习偏见,而历史数据中可能隐藏着过去歧视行为的特洛伊木马。


亚马逊在近十年前被发现偏袒男性求职者后,取消了其招聘算法项目。人工智能是通过学习过去的简历(主要是男性求职者)来评估新简历的。虽然算法不知道求职者的性别,但它仍然会降低带有 "女性 "字样或列出女性院校的简历的等级,部分原因是这些简历在算法学习的历史数据中并不存在。


"克里斯汀-韦伯(Christine Webber)是一起集体诉讼案的代理律师,该案指控人工智能系统对租房申请者打分时歧视黑人或西班牙裔申请者。


法庭文件描述,诉讼原告之一玛丽-路易斯(Mary Louis)是一名黑人妇女,她申请在马萨诸塞州租住一套公寓,却收到了令人费解的答复: "我们用来筛选所有潜在租户的第三方服务拒绝了你的租房申请。


法庭记录显示,当路易斯提交了两份房东推荐信,证明她 16 年来一直提前或按时支付房租时,她收到了另一份回复: "很遗憾,我们不接受上诉,也不能推翻租户筛选的结果。"


在某种程度上,缺乏透明度和问责制正是这些法案所针对的问题,这也是继去年加利福尼亚州提案失败之后的又一提案,该提案是首次对私营部门的人工智能偏见进行全面监管的尝试。


根据这些法案,使用这些自动决策工具的公司必须进行 "影响评估",包括说明人工智能如何在决策中发挥作用、收集的数据、歧视风险分析,以及对公司保障措施的解释。根据不同的法案,这些评估将提交给州政府,或者监管机构可以要求提交。


相关标签