80年代的算法偏见

作者: 行空师兄 | 来源:发表于2019-05-19 10:19 被阅读40次

1970年代,伦敦圣乔治医学院的Geoffrey Franglen博士开始编写一个算法来筛选学生的入学申请。

当时,圣乔治每年2500份申请中有3/4只是因为书写的申请就被学术评估人拒绝了,都没有进入到面试阶段。通过初步筛选的人当中约有70%最后拿到了医学院的录取名额。所以初步的“淘汰”轮非常关键。

Franglen是圣乔治医学院的副院长,而且他本人就是招生评估员。看申请是一项非常耗时的任务,他觉得这可以自动化完成。他研究了自己和同事筛选学生的过程,然后写了一个程序,用他的话来说,这个程序“模仿了人类评估员的行为。”

尽管Franglen的主要动机是提高招生流程的效率,但他也希望消除招生人员在旅行职责当中的不一致。其想法是将职责交给技术系统,所有的学生申请都要遵循完全一样的评估过程,从而创造一个更公平的流程。

但其实结果恰恰相反。

1979年,Franglen完成了算法。那一年,学生申请要经过计算机与人类评审员的双重测试。Franglen发现,这套系统跟筛选委员会的评分有90%到95%的一致率。在医学院的管理层看来,这一结果证明了算法可以取代人类筛选员。到1982年,圣乔治医学院的所有初选工作都交给程序来完成了。

如果他们的名字不是白人姓氏的话,筛选流程就会不利于他们。实际上,光是没有一个欧洲名字就会自动扣除申请者15分了。

不出几年,学校的职工就对成功申请者当中缺乏多样性感到担忧。他们对Franglen的程序进行了内部审核,注意到系统的特定规则似乎以一些不相干的因素,比如出生地和姓名来权衡申请者。但Franglen向委员会保证,这些规则源自之前招生趋势收集到的数据,对筛选只会产生很小的影响。

1986年12月,圣乔治医学院的两位资深讲师听说了这次内部审核的事情,然后找到了种族平等委员会。他们告诉委员们说,他们有理由相信这套计算机程序被偷偷用于对女性和有色人种进行歧视。

该委员会于是启动一项调查。结果调查发现,候选人被算法按照名字和出生地分成了“白人”或者“非白人”。如果他们的名字不是白人姓氏,筛选流程就会对他们不利。实际上,光是没有一个欧洲名字就会自动扣除申请者15分了。委员会还发现,女性申请者平均要被扣掉3分。算下来,每年大概有多达60位申请者被这套评分系统拒绝了面试。

在当时,英国大学的性别和种族歧视还非常猖獗——圣乔治医学院之所以被逮住是因为它把偏见供奉到了一个计算机程序里面。因为算法给女性和名字非欧洲化的人更低的分数是可验证的,委员会就有了歧视的具体证据。

委员会认定,圣乔治医学院要为招生政策中存在的歧视性做法负责,但因为没有造成严重后果而逃脱了罪责。为了表现出一点补偿的诚意,医学院联系了可能受到不公正歧视的人,3名此前申请被拒的学生后来被补录进来了。委员会指出,医学院的问题不仅仅是技术性的,而且也是文化上的。很多教职员工都将录取机器视为没有问题,因此并没有花时间去询问如何鉴别学生的问题。

从更深层次来看,算法只是在维持招生系统早已存在的偏见而已。毕竟,Franglen已经拿这台机器跟人比较过,发现结果的相关性达到了90-95%。但是由于他把筛选员的歧视做法编码到技术系统里面,就导致了这些偏见会一而再再而三地持续下去。

圣乔治医学院的歧视引起了极大的的关注。后来,委员会裁定该校的招生表格里面含有种族和种族划分的信息。但是这不痛不痒的一部并不能阻止算法偏见的暗流涌动。

的确,随着算法决策系统日益渗透到医疗保健和司法审判等高风险领域,基于历史数据而产生的原有社会偏见的长期存在和扩散已经成为一个巨大的问题。2016年, ProPublica的调查记者披露全美用于预测未来犯罪情况的软件对非洲裔美国人存在偏见。最近,研究学者Joy Buolamwini证明了美国的脸部识别软件对黑肤色的女性有着更高的错误率。

尽管机器偏见正在快速成为AI领域被讨论得最多的话题之一,算法仍经常被看成是是产生理性、不带偏见结果的数学的不可理解的、毋庸置疑的对象。正如AI批评人士Kate Crawford所说那样,是时候把算法看作是“人类设计的创造物”了,而自然它会继承我们的偏见。算法不可置疑的文化迷思往往掩盖了这样一个事实:我们的AI只会跟我们一样好。

原文链接:https://spectrum.ieee.org/tech-talk/tech-history/dawn-of-electronics/untold-history-of-ai-the-birth-of-machine-bias

相关文章

  • Arxiv网络科学论文摘要13篇(2019-08-29)

    多问题意见模型中的意识形态动机偏见; 桁架分解的流和批处理算法; 近似单源个性化PageRank查询的有效算法; ...

  • 《AI·未来》---3、人工智能的本质是人性

    人工智能的本质是算法,而人类的任何算法都有偏见与傲慢,所以人工智能的本质就是人性。 很少有人能有李开复老师那样经历...

  • 80年代的算法偏见

    1970年代,伦敦圣乔治医学院的Geoffrey Franglen博士开始编写一个算法来筛选学生的入学申请。 当时...

  • 「十万个支持吗」放下偏见,世界都在手中

    偏见是什么?偏见是拘泥于过去生活经验,所作出的主观臆断。 偏见分为对人的偏见、对事的偏见、对物的偏见。 偏见是争端...

  • 看《绿皮书》有感

    偏见是这个世界永恒的主题…… 这个世界存在着各种各样的偏见,种族的偏见,贫富的偏见,美丑的偏见等等…… 从小到大我...

  • #100天阅读计划DAY48#

    调差和问卷的回答真实吗: 调查本身包含偏见,两个最重要的偏见有措辞偏见和语境偏见。 消除偏见的方法:仔细盘查调查的...

  • 「十万个支持吗 | 利用偏见才有更好的人生」

    观点:偏见不是坏事 偏见对人的影响 有人用偏见可以激发人的潜力来证明偏见不是坏事,可我很难认同,偏见对人造成的影响...

  • 读书笔记之偏见的种类

    锚定偏见:第一印象产生的偏见。 内省偏见或乐观偏见:我们通常会高估自己,低估别人。 可用性偏见:当你想到某个概念的...

  • 偏见

    人的一生,充满各种各样的偏见。人对职业有偏见,对性别有偏见,对人也有偏见。 印象深刻的偏见,对我来说莫过于...

  • 学会提问 第八章

    调查问卷的回答: 调查问卷本身就带有很多的偏见,最重要的偏见就是措辞偏见和语境偏见。所提问题的措辞偏见,对提出一个...

网友评论

    本文标题:80年代的算法偏见

    本文链接:https://www.haomeiwen.com/subject/bhhtzqtx.html