人工智能在我们最重要的社会机构的高风险决策中扮演着更重要的角色。它进入了我们的医院,法院和就业办公室,决定谁获得保险,谁获得假释,谁被雇佣。在许多情况下使用人工智能是为了提高效率和消除人类在做决定时的偏见。
我们必须认识到算法不是中立的,输入决定了输出。如果带有偏见的数据输入到算法中,或者反应现有社会偏见的因素所占的权重被调高,毫无疑问,这样算出来的结果一定是带有歧视性的。人工智能中的算法得出的结果,往往需要建立在某种假设上 ---- 算法通过训练数据建立模型,并提供“如果这样,则会。。”的结论。通过多次训练,和不断的调整模型参数,最终算法会形成自我学习的功能,使得输出结果达到最佳。同时,如果训练过程中,数据是不正确的,或者人为调控的,那么,这样训练出来的算法得出的结论一定是不公平的。
很多人会担心计算机会变得越来越聪明,甚至达到电影中的场景,计算机掌控了世界。其实,如今的现状是,计算机还算不上聪明,并且它们已经开始影响我们生活的方方面面。
人工智能在安全预警模型和健康保险风险预测领域已经施行的很多年。安全预警模型使用历史犯罪记录,包括日期,时间和地点来预测犯罪。由于少数民族和低收入人群犯罪的可能性远远高于收入高的人群,所以安全预警模型会更多的安排巡逻任务在这些人群的居住区。由此带来的结果是,这些低收入人群的社区会持续投入更多的警力来维持治安,在国外,更会扩大种族偏见。
在健康保险方面,保险公司现在可以通过结合数以千计的非传统“第三方”数据来预测个人未来的健康风险,例如购买历史和邻居健康。 虽然使用这些数据可能会准确预测保险公司的风险,但这也意味着有风险的个人可能会收取不能承受的保险费,也不会被全部拒绝。 对于那些面临系统性健康挑战的社区,这些预测模型可能会使健康差距持续下去。
随着人工只能的普及,它越来越多的影响着社会,政治和经济权利的相应决定,我们必须确保这些制度的建立和实施,以维护公开,公正,透明的原则。 有两种方法可以更好地确保这些原则被应用到AI中,不仅可以保证人工智能提高决策效率,还能使得决策更加公平。
尽可能广泛的采集基础数据
基础数据的覆盖面和完整度直接决定了算法的导向,如果数据是区域性的,或者带有偏向的,这样训练出来的模型在做决策时也一定是不公平的。
image.png在每个阶段融入多样性
在设计和部署过程的每个阶段都应考虑多样性,以完善其对决策的影响。 研究表明,更多样化的团队在问题解决方面更有效率,无论他们的智商如何。 对人工智能做出的决策做出及时的反馈和优化,不仅可以降低决策带来的地域偏见,还能更有效的推动其在社会,经济,包括政治上的应用。
网友评论