法比奥-劳里亚

从我们的错误中学习(也)的机器 回旋镖效应:我们把我们的错误教给人工智能,它却把错误还给我们......成倍增加!

2025 年 4 月 13 日
在社交媒体上分享

一些 最近的一些研究突出了一个有趣的现象:人工智能模型中存在的偏差与人类思维中的偏差之间存在 "双向 "关系。

这种相互作用产生的机制往往会 双向放大认知扭曲.

这项研究表明,人工智能系统不仅会从训练数据中继承人类的偏见,而且在实施时还会强化这些偏见,进而影响人们的决策过程。这就形成了一个循环,如果管理不当,就有可能逐步加剧最初的偏见。

这种现象在一些重要部门尤为明显,如

在这些领域,最初的微小偏差可能会通过人类操作员和自动系统之间的反复交互而扩大,逐渐变成 结果的重大差异.

偏见的起源

在人类思想中

人的大脑会自然而然地使用 "思维捷径",这会给我们的判断带来系统性错误。双重思维 "理论双重思维"区分为

  • 思维敏捷、直觉敏锐(易受定型观念影响)
  • 慢速反思(能够纠正偏见)

例如,在医学领域,医生往往过于重视最初的假设,而忽略了相反的证据。这种现象被称为 "确认偏差",根据历史诊断数据训练的人工智能系统复制并放大了这种偏差。

在人工智能模型中

机器学习模型主要通过三种渠道延续偏见:

  1. 反映历史不平等现象的不平衡训练数据
  2. 选择包含受保护属性(如性别或种族)的特征
  3. 与已被扭曲的人类决策互动产生的反馈回路

2024 年加州大学洛杉矶分校的一项研究研究表明,根据人的情绪判断训练出来的面部识别系统,会有 4.7% 的倾向将人脸标记为 "悲伤",而在随后与用户的互动中,这种倾向会放大到 11.3%。

它们如何相互放大

对招聘平台的数据分析显示,通过相互强化的反馈机制,人类与算法的每个合作周期都会使性别偏见增加 8-14%。

当人力资源专业人员从人工智能中获得已经受到历史偏见影响的候选人名单时,他们随后的互动(如面试问题或绩效评估的选择)会强化对模型的扭曲表述。

2025 年对 47 项研究进行的荟萃分析发现,在医疗保健、贷款和教育等领域,三轮人类与人工智能的合作使人口差距扩大了 1.7-2.3 倍。

衡量和减轻偏见的战略

通过机器学习进行量化

Dong 等人(2024 年)提出的衡量偏差框架通过分析受保护群体之间决策模式的差异,无需 "绝对真理 "标签即可发现偏差。

认知干预

加州大学洛杉矶分校研究人员开发的 "算法镜像 "技术,通过向管理人员展示如果他们的历史选择是由人工智能系统做出的,会是什么样子,将晋升决策中的性别偏见减少了 41%。

事实证明,在 IA 协助和自主决策之间交替进行的培训方案尤其有前途,在临床诊断研究中,可将偏差转移的影响从 17% 降低到 6%。

对社会的影响

如果组织在实施人工智能系统时不考虑与人类偏见的相互作用,就会面临更大的法律和运营风险。

对就业歧视案件的分析表明,与传统的人工主导案件相比,人工智能辅助招聘流程使原告的胜诉率提高了 28%,因为算法决策的痕迹提供了更清晰的差异影响证据。

实现尊重自由和效率的人工智能

算法扭曲与限制选择自由之间的关联要求我们从个人责任和保障市场效率的角度重新思考技术发展。关键是要确保人工智能成为扩大机会而不是限制机会的工具。

有希望的方向包括

  • 激励开发无偏见算法的市场解决方案
  • 提高自动决策过程的透明度
  • 放松管制有利于不同技术解决方案之间的竞争

只有通过负责任的行业自律,再加上用户的自由选择,我们才能确保技术创新继续成为繁荣的引擎,为所有愿意接受技能考验的人提供机会。

法比奥-劳里亚

首席执行官兼创始人 |Electe

作为Electe 公司的首席执行官,我帮助中小企业做出数据驱动型决策。我撰写有关商业领域人工智能的文章。

最受欢迎
注册获取最新消息

在您的收件箱中接收每周新闻和见解
。不要错过

谢谢!您提交的材料已收到!
哎呀!提交表格时出了点问题。