什么是算法偏差以及如何检测它们?

算法偏见:类型、检测与缓解

算法偏见广泛存在于我们的日常生活中,从网络内容推荐到求职招聘和财务决策,无一幸免。

人类天生带有偏见,因为每个人的性别、种族、成长环境、教育背景、文化、信仰和经验都各不相同。

这些差异导致人们的观点、想法、喜好和偏爱各异,从而可能对特定事物或群体产生偏见或负面情绪。

机器也不例外。算法中引入的偏见会导致它们以不同方式看待人、事和物。这些偏见会导致人工智能和机器学习系统产生不公平的结果,并在多个方面对人们造成不利影响。

本文将探讨算法偏见的含义、类型,以及如何检测和减少这些偏见,从而提升结果的公正性。

让我们开始吧!

什么是算法偏见?

算法偏见是指机器学习和人工智能算法在运行时,反映出人类的偏见并产生不公正输出的倾向。 这些偏见可能源于性别、年龄、种族、宗教、民族和文化等因素。

在人工智能和机器学习领域,算法偏见指的是系统中引入的、可重复出现的系统性错误,从而导致不公正的结果。

算法中出现偏见的原因多种多样,包括数据收集、选择、编码方式,以及算法训练过程中所做的决策、预期用途和算法设计等。

例如:在搜索引擎结果中就可能观察到算法偏见,进而导致隐私泄露、社会偏见等问题。

在选举结果、网络仇恨言论传播、医疗保健、刑事司法和招聘等领域,存在许多算法偏见的案例。这些偏见加剧了性别、种族、经济和社会方面业已存在的偏见。

算法偏见的类型

1. 数据偏见

当用于训练人工智能模型的数据不能准确代表真实世界的情况或人群时,就会出现数据偏见。 这会导致数据集不平衡或失真。

来源: 研科国际

示例:如果面部识别软件主要使用白人数据进行训练,那么在识别肤色较深的人时,可能效果不佳,从而对他们产生不利影响。

2. 测量偏见

这种偏见可能源于测量或数据收集过程中的错误。

示例:如果训练医疗诊断算法时,依据的指标是之前的就医次数而非实际症状,可能会导致判断偏差,从而产生偏见。

3. 模型偏见

模型偏见出现在算法或人工智能模型设计阶段。

示例:如果人工智能系统的算法目标是利润最大化,它可能会优先考虑经济利益,而牺牲商业道德、安全和公平等。

4. 评估偏见

当评估人工智能系统性能的标准或因素存在偏见时,就会出现评估偏见。

来源: 清晰的评论

示例:如果绩效评估人工智能系统使用的测试标准偏向于特定类别的员工,则可能会加剧不平等。

5. 报告偏见

当训练数据集不能准确反映事件发生的真实频率时,可能会出现报告偏见。

示例:如果某安全工具在特定类别中表现不佳,它可能会将整个类别都标记为可疑对象。

这意味着,由于该类别事件的发生频率较高,系统所训练的数据集会将该类别中的所有历史事件标记为不安全。

6. 选择偏见

当选择的训练数据没有经过适当的随机化,或者不能很好地代表整体情况时,就会出现选择偏见。

示例:如果人脸识别工具使用有限的数据进行训练,它可能会歧视那些它较少遇到的数据,例如在政治领域识别有色人种女性时,会比识别政治领域中的男性或浅肤色人群的效果差。

7. 隐性偏见

当人工智能算法基于某些个人经验做出假设时,就会出现隐性偏见,而这些假设可能不适用于更广泛的类别或个人。

示例:如果设计人工智能算法的数据科学家个人认为女性主要喜欢粉色而非蓝色或黑色,系统可能会相应地推荐产品,但这并不适用于所有女性。许多人喜欢蓝色或黑色。

8. 群体归因偏见

当算法设计者将适用于某些个体的结论应用于整个群体时,就会出现群体归因偏见,无论这些个体是否属于该群体。这种偏见在招聘和入学工具中很常见。

示例:招生工具可能会偏爱来自特定学校的候选人,而歧视其他学校的学生。

9. 历史偏见

在收集用于训练机器学习算法的数据集时,获取历史数据至关重要。但是,如果不注意,算法中可能会因历史数据中存在的偏见而出现偏差。

示例:如果你使用过去 10 年的数据训练人工智能模型来筛选技术职位的候选人,如果训练数据中男性多于女性,那么该模型可能会偏向男性申请人。

10. 标签偏见

在训练机器学习算法时,需要标记大量数据才能使其有用。但是,数据标记过程可能会存在很大差异,从而产生不一致并向人工智能系统引入偏见。

示例:假设你通过使用方框标记图像中的猫来训练人工智能算法。如果不够注意,算法可能无法识别图片中没有猫脸的猫,而只能识别有猫脸的猫。

这意味着该算法在识别正面有猫的图片时存在偏差。如果从不同角度拍摄的图片,只显示身体而不显示脸部,则无法识别猫。

11. 排除偏见

来源: 研究之门

当特定的人、群体或类别被认为不相关时,在数据收集过程中无意或有意地被排除在外时,就会出现排除偏见。这种情况主要发生在机器学习生命周期的数据准备阶段,即在清理数据并准备使用时。

示例:假设一个基于人工智能的预测系统需要根据购买率来确定特定产品在冬季的受欢迎程度。如果数据科学家注意到 10 月份的一些购买记录并将其删除,认为它们是错误的,并将标准持续时间定义为 11 月到 1 月,但是有些地方的冬天甚至超过了这几个月。因此,该算法将偏向于那些 11 月到 1 月期间经历冬季的国家。

如何将偏见引入算法?

训练数据

算法偏见的主要来源是用于训练人工智能和机器学习算法的偏差数据。如果训练数据本身包含不平等和偏见的元素,算法将学习这些元素并延续偏见。

设计

在设计算法时,开发人员可能会有意无意地在人工智能系统中引入个人想法或偏好的反映。因此,人工智能系统会偏向于某些类别。

决策

很多时候,数据科学家和领导者会根据个人经验、环境、信仰等做出决策。 这些决定也会反映在算法中,导致偏差。

缺乏多样性

由于开发团队缺乏多样性,团队成员最终创建的算法可能不能代表整个群体。他们没有接触过其他文化、背景、信仰和方法等,这就是为什么他们的算法可能在某种程度上存在偏见。

数据预处理

用于清理和处理数据的方法可能会引入算法偏差。此外,如果不仔细设计这些方法来消除偏差,人工智能模型中的偏差可能会变得严重。

架构

选择的模型架构和机器学习算法类型也会引入偏差。有些算法比其他算法更容易引起偏差,也和它们的设计方式有关。

特征选择

选择用于训练人工智能算法的特征是造成偏差的原因之一。如果选择特征时没有考虑到其对输出公平性的影响,可能会出现一些偏差,从而偏向某些类别。

历史文化

如果算法接受来自历史或某些文化的数据的输入和训练,它可能会继承偏见、信仰和规范等。这些偏见可能会影响人工智能的结果,即使它们在目前是不公平和无关紧要的。

数据漂移

你现在用于训练人工智能算法的数据将来可能会变得无关、无用或过时。这可能是由于技术或社会的变化造成的。但是,这些数据集仍然会引入偏差并妨碍性能。

反馈回路

一些人工智能系统不仅可以与用户交流,还可以适应用户的行为。通过这种方式,算法可以加强现有的偏差。因此,当用户的个人偏见进入人工智能系统时,就会产生有偏见的反馈循环。

如何检测算法偏见?

定义什么是“公平”

要检测算法中不公平的结果或偏见,需要明确“公平”对于人工智能系统到底意味着什么。为此,可以考虑性别、年龄、种族、性取向、地区、文化等因素。

确定用于计算公平性的指标,例如机会均等、预测均等和影响等。 一旦定义了“公平性”,就可以更容易地发现不公平的情况并解决问题。

审核训练数据

彻底分析训练数据,以查找代表不同类别的不平衡和不一致情况。必须检查特征分布,并确定其是否代表现实世界的人口统计数据。

为了可视化数据,可以创建直方图、热图和散点图等,以突出显示仅依靠统计分析无法揭示的差异和模式。

除了内部审计之外,还可以邀请外部专家和审计员来评估系统是否存在偏差。

衡量模型性能

要检测偏差,请尝试衡量人工智能模型针对各种人口统计数据和类别的性能。如果按种族、性别等将训练分组,将会有所帮助。还可以使用公平性指标来计算结果的差异。

使用合适的算法

选择能够促进公平结果,并能够解决人工智能模型训练中存在的偏见的算法。公平感知算法旨在防止偏见,同时确保各个类别的预测相同。

偏见检测软件

可以使用具有公平意识的专用工具和库来检测偏见。这些工具提供公平性指标、可视化、统计测试等来检测偏差。一些流行的工具包括 AI Fairness 360 和 IBM Fairness 360。

寻求用户反馈

向用户和客户收集关于人工智能系统的反馈意见。如果他们在人工智能系统中感受到任何形式的不公平待遇或偏见,鼓励他们给出诚实的评论。这些数据将有助于找出自动化工具和其他检测程序可能未标记的问题。

如何减少算法中的偏差

使公司多元化

在公司和开发团队中创造多样性可以更快地发现和消除偏见。原因是受到偏见影响的用户可以很快注意到偏见。

因此,公司不仅要在人口统计方面实现多元化,还要在技能和专业知识方面实现多元化。纳入不同性别、身份、种族、肤色和经济背景的人,以及具有不同教育经历和背景的人。

这样,可以收集广泛的观点、经验、文化价值观和喜好等。这将有助于增强人工智能算法的公平性,并减少偏见。

提高透明度

与团队就人工智能系统的目标、算法、数据来源和决策保持透明。这将使用户能够了解人工智能系统的工作原理以及为什么产生某些输出。这种透明度将促进信任。

公平意识算法

开发模型时使用公平感知算法,以确保为不同类别生成公平的结果。 如果为金融和医疗保健等受到严格监管的行业创建人工智能系统,这一点就尤为重要。

评估模型性能

测试模型,以检查人工智能在各个组和子组中的表现。 这将帮助了解聚合指标中无法看到的问题。还可以模拟不同的场景,以检查其在这些场景下的性能,包括复杂场景。

遵循道德准则

制定一些开发人工智能系统的道德准则,尊重公平、隐私、安全和人权。必须在整个组织内强制执行这些准则,以便在整个组织范围内提高公平性,并反映在人工智能系统的输出中。

设置控制和责任

为团队中负责人工智能系统设计、开发、维护和部署的每个人设定明确的职责。 还必须通过严格的协议和框架设置适当的控制,以解决偏见、错误和其他问题。

此外,还必须进行定期审核,以减少偏见并努力持续改进。 同时,要随时了解技术、人口统计和其他因素的最新变化。

算法偏见的现实例子

1. 亚马逊的算法

亚马逊是电子商务行业的领导者。然而,其 招聘工具 使用人工智能根据求职者的资格评估求职者的做法存在性别偏见。该人工智能系统是使用先前担任技术职位的候选人的简历进行训练的。

不幸的是,人工智能学习到数据中男性申请者的数量较多。因此,它无意中偏向于担任技术职位的男性申请人,而不是人数较少的女性。尽管亚马逊努力减少偏见,但不得不在 2017 年停止使用该工具。

2. 种族主义的美国医疗算法

美国医院用于预测需要额外护理的患者的算法严重依赖 偏向白人患者。该系统根据患者的医疗费用历史记录评估患者的医疗需求,并将成本与医疗需求相关联。

该系统的算法没有考虑白人和黑人患者如何支付医疗保健费用。尽管病情不受控制,黑人患者的大部分费用还是用于紧急情况。因此,与白人患者相比,他们被归类为更健康的患者,没有资格获得额外的护理。

3. 谷歌的判别算法

发现谷歌的在线广告系统存在 歧视。调查显示,担任首席执行官等高薪职位的男性明显多于女性。即使 27% 的美国首席执行官是女性,她们在谷歌广告中出现的比例也少得多,约为 11%。

该算法可以通过学习用户行为来显示输出,例如观看和点击高薪职位广告的人是男性;因此,人工智能算法会更多地向男性展示这些广告,而不是女性。

结论

机器学习和人工智能系统中的算法偏见会导致不公平的结果。这些结果可能会影响各个领域的个人,从医疗保健、网络安全、电子商务到选举和就业等。它可能导致基于性别、种族、人口统计数据、性取向和其他方面的歧视。

因此,减少人工智能和机器学习算法中的偏见,以促进结果的公平性非常重要。以上信息将帮助您发现并减少偏见,以便为用户创建公平的人工智能系统。

您还可以了解有关人工智能治理的内容。