我最近在研究招聘 AI 系统的偏见问题。Amazon 2018 年弃用的那个 AI 招聘工具让我印象深刻——它系统性地歧视女性候选人。这让我想到一个问题:如果 AI 只是在学习数据中的模式,那偏见到底是 AI 的'错'还是我们的'错'?
这个问题触及了 AI 伦理中最核心的议题之一。让我从几个层面分析:
数据层面的偏见:Amazon 的案例中,AI 学习的是过去 10 年以男性为主的招聘数据。AI 忠实地'学到了'性别歧视,因为历史数据本身就是歧视性的。
系统层面的放大:更危险的是,AI 不仅继承偏见,还可能放大偏见。一个有偏见的招聘 AI 会排除多样化的候选人,导致未来的训练数据更加单一,形成恶性循环。
责任归属的复杂性:
所以这不是非此即彼的问题——这是一个多层级的共同责任。
说得对。但我更想深入'修复'的问题。有些人主张用'公平性约束'来矫正算法,但这引发了另一个问题——谁来定义什么是'公平'?不同的公平定义之间甚至是矛盾的。
你触及了算法公平性研究中最著名的'不可能定理'。Chouldechova (2017) 证明了,在基准率不同的群体之间,以下三个公平性标准不可能同时满足:
这意味着'公平'不是一个技术问题,而是一个价值选择。每种公平定义背后都隐含着不同的正义观——分配正义、程序正义还是矫正正义?
这恰恰说明了为什么 AI 治理不能只由工程师决定,需要伦理学家、社会学家、法律学者和受影响社区的共同参与。