主要内容
随着公司对自动化系统的依赖增加,伦理已成为关键关注点。算法日益影响先前由人做出的决策,这些系统对就业、信用、医疗保健和法律结果产生影响。这种权力要求承担责任。若无明确规则和伦理标准,自动化可能会强化不公平并造成伤害。忽视伦理以真实方式影响真实的人,不仅改变公众信任程度。有偏见的系统可能拒绝贷款、工作或医疗保健,且若无监管措施,自动化会加快错误决策的速度。当系统做出错误判断时,往往难以申诉甚至难以理解原因,缺乏透明度会将小错误转化为大问题。
理解人工智能系统中的偏见:自动化中的偏见通常源于数据。如果历史数据包含歧视,基于此训练的系统可能会重复这些模式。例如,用于筛选求职者的人工智能工具,如果其训练数据反映了过去的偏见,可能会基于性别、种族或年龄拒绝候选人。偏见也通过设计进入,在决定测量什么、偏向哪些结果以及如何标记数据时可能会产生偏差结果。偏见有多种类型,抽样偏见发生在数据集不能代表所有群体时,而标记偏见可能来自主观的人为输入。即使是优化目标或算法类型等技术选择也可能使结果产生偏差。
这些问题不仅仅是理论上的。2018 年,亚马逊在其招聘工具偏爱男性候选人后停止使用该工具,一些面部识别系统被发现误识别有色人种的比例高于高加索人。此类问题损害信任并引发法律和社会担忧。
另一个实际担忧是代理偏见。即使未直接使用种族等受保护特征,邮政编码或教育水平等其他特征也可能充当替代物,这意味着即使输入看似中立,系统仍可能存在歧视,例如基于较富裕或较贫困地区。如果不进行仔细测试,代理偏见很难被检测到。
人工智能偏见事件的增加表明在系统设计中需要更多关注。
满足重要标准:法律正在跟进。欧盟 2024 年通过的《人工智能法案》按风险对人工智能系统进行排名。高风险系统,如用于招聘或信用评分的系统,必须满足严格要求,包括透明度、人工监督和偏见检查。在美国,没有单一的人工智能法律,但监管机构很活跃。平等就业机会委员会警告雇主关于人工智能驱动的招聘工具的风险,联邦贸易委员会也表示偏见系统可能违反反歧视法。白宫发布了《人工智能权利法案蓝图》,提供安全和伦理使用的指导。虽非法律,但设定了期望,涵盖五个关键领域:安全系统、算法歧视保护、数据隐私、通知和解释以及人工替代方案。
公司还必须关注美国州法律。加利福尼亚州已采取行动规范算法决策,伊利诺伊州要求公司在视频面试中使用人工智能时告知求职者。不遵守可能会导致罚款和诉讼。纽约市的监管机构现在要求对招聘中使用的人工智能系统进行审计。审计必须显示该系统在性别和种族群体中是否提供公平结果,雇主在使用自动化时也必须通知求职者。合规不仅仅是避免处罚,还涉及建立信任。能够证明其系统公平且负责的公司更有可能赢得用户和监管机构的支持。
如何构建更公平的系统:自动化中的伦理不是偶然发生的。它需要规划、正确的工具和持续的关注。偏见和公平必须从一开始就纳入过程中,而不是事后添加。这需要设定目标、选择正确的数据。