旁观者之眼
定义AI偏见取决于你的视角

人工智能将帮助我们为未来世界做准备的观念,已经融入了我们的集体幻想。然而,根据我们目前所看到的,人工智能似乎更有能力重演过去,而不是预测未来。
这是因为人工智能算法是根据数据进行训练的。就其本质而言,数据是过去发生的事情的产物。你左转了还是右转了。你上楼梯或下楼梯。你的外套是红色或蓝色的。你按时交了电费还是迟交了。
数据是一个遗迹——即使它只有几毫秒的历史。可以肯定地说,大多数人工智能算法都是在更老的数据集上训练的。除了年份和准确性之外,您还需要考虑其他因素,例如谁收集了数据,数据收集的位置以及数据集是否完整或缺少数据。
没有完美的数据集——充其量,它是对现实的扭曲和不完整的反映。当我们决定使用哪些数据,丢弃哪些数据时,我们会受到先天偏见和已有信念的影响。
“假设你的数据是世界的完美反映。这仍然是个问题,因为这个世界本身就是有偏见的,对吧?所以现在你有了一个扭曲的世界的完美形象,”朱莉娅·斯托亚诺维奇说,他是计算机科学和工程副教授纽约大学经脉也是负责任人工智能研究中心.
人工智能能帮助我们减少潜入我们数据集的偏见和偏见,还是只会放大它们?谁来决定哪些偏见是可以容忍的,哪些是真正危险的?偏见和公平是如何联系在一起的?是否每一个有偏见的决定都会产生不公平的结果?还是关系更复杂?
今天关于人工智能偏见的讨论往往集中在高能见度的社会问题上,如种族主义、性别歧视、年龄歧视、同性恋恐惧症、变性恐惧症、仇外心理和经济不平等。但是有很多已知的偏差(例如,确认偏差,后见之明偏差,可用性偏差,锚定偏差,选择偏差,损失厌恶偏差,异常值偏差,生存偏差,省略变量偏差等等)。Jeff Desjardins,网站创始人兼主编视觉的资本主义出版了一份迷人的图表描述了188种认知偏见——而这些只是我们所知道的。
Ana Chubinidze,创始人AdalanAI这家总部位于柏林的人工智能治理初创公司担心,人工智能会发展出自己看不见的偏见。目前,“人工智能偏见”一词主要指嵌入在历史数据中的人类偏见。“当人工智能开始产生自己的偏见时,事情将变得更加困难,”她说。
她预测,人工智能将在数据中发现相关性,并假设它们是因果关系——即使这些关系在现实中并不存在。她说,想象一下,一个拥有人工智能的教育科技系统,可以根据学生正确回答之前问题的能力,向他们提出越来越难的问题。尽管我们都知道正确回答问题取决于许多因素,包括饥饿、疲劳、注意力分散和焦虑,但人工智能很快就会对哪些学生“聪明”、哪些不聪明产生偏见。
然而,教育科技人工智能的“聪明”学生会遇到具有挑战性的问题,而其他学生会遇到更容易的问题,导致学习结果不平等,可能直到学期结束才会被注意到,或者根本不会被注意到。更糟糕的是,人工智能的偏见可能会进入系统的数据库,并跟随学生从一个班级到下一个班级。
尽管教育科技的例子是假设的,但现实世界中有足够多的人工智能偏见案例值得警惕。在2018年,路透报道称,亚马逊已经取消了一款对女性求职者存在偏见的人工智能招聘工具。2016年,微软的Tay聊天机器人是关闭在发表种族歧视和性别歧视言论后。
也许我看了太多的《阴阳魔界》(The Twilight Zone)和《黑镜》(Black Mirror),因为对我来说很难看到一个好的结局。如果你对我们的偏见几乎无穷无尽的力量有任何怀疑,请阅读思考,快与慢作者是诺贝尔奖得主丹尼尔·卡尼曼。为了说明我们对偏见的敏感性,卡尼曼让我们想象一根球棒和一个棒球售价1.10美元。他告诉我们,球棒比球贵一美元。这个球多少钱?
作为人类,我们倾向于简单的解决方案。这是我们都有的偏见。结果,大多数人会凭直觉跳到最简单的答案上——球棒值1美元,球值10美分——即使这个答案是错误的,只要再多思考几分钟就会得出正确的答案。我真的去找了一张纸和一支笔,这样我就可以把代数方程写出来了——这是我从九年级开始就没有做过的事情。
我们的偏见无处不在。我们的数据集越细,就越能反映出我们根深蒂固的偏见。问题是,我们正在使用这些有偏见的数据集来训练人工智能算法,然后使用这些算法来做出有关招聘、大学录取、财务信誉和公共安全资源分配的决策。
我们也在使用人工智能算法来优化供应链、筛查疾病、加速开发拯救生命的药物、寻找新的能源来源,以及在世界范围内搜寻非法核材料。当我们更广泛地应用人工智能并努力解决其影响时,很明显,偏见本身是一个狡猾和不精确的术语,特别是当它与不公平的概念混为一谈时。仅仅因为某个特定问题的解决方案看起来“不偏不倚”并不意味着它是公平的,反之亦然。
“公平真的没有数学定义,”Stoyanovich说。“我们通常谈论的事情在实践中可能适用,也可能不适用。任何偏见和公平的定义都应该以特定的领域为基础。你必须问,‘人工智能会影响谁?危害是什么,谁受到了伤害?好处是什么,谁会受益?’”
目前围绕人工智能的炒作浪潮,包括对ChatGPT的持续炒作,已经让人们对人工智能的优势和能力产生了不切实际的期望。核不扩散和人工智能在国家安全方面的应用专家安吉拉•谢菲尔德(Angela Sheffield)表示:“高级决策者往往会震惊地发现,人工智能会在一些琐碎的任务上失败。”“对人类来说很容易的事情,对人工智能来说往往很难。”
谢菲尔德指出,除了缺乏基本的常识,人工智能本身也不是中立的。如果我们简单地消除偏见,人工智能就会变得公平、中立、有帮助、有用、有益、负责,并与人类价值观保持一致,这种想法是异思天开。“我们的目标不是创造中立的AI。我们的目标是创造可调整的人工智能,”她说。“我们应该找到衡量和纠正偏见的方法,而不是做出假设。如果我们在构建人工智能时不处理偏见,它将以我们无法预测的方式影响性能。”如果一个有偏见的数据集使减少核武器扩散变得更加困难,那么这就是一个问题。
格雷戈尔Stuhler的联合创始人兼首席执行官Scoutbee该公司位于德国w
从我的角度来看,这些例子支持在领域层面管理AI偏见问题的想法,而不是试图设计一个通用或全面的自上而下的解决方案。但这种方法是不是太简单了?
几十年来,科技行业一直通过援引功利主义哲学来回避复杂的道德问题,这种哲学认为,我们应该努力为尽可能多的人创造最大的利益。在可汗之怒斯波克先生说:“多数人的需要比少数人的需要更重要。”这是一个简单的陈述,抓住了功利主义的精神。恕我直言,斯波克先生,但它没有考虑到情况会随着时间而变化。昨天对每个人来说都很美好的事情,明天可能就不那么美好了。
我们现在对人工智能的迷恋可能会过去,就像我们对化石燃料的喜爱已经被我们对气候变化的担忧所缓和一样。也许最好的做法是假设所有的人工智能都是有偏见的,我们不能不考虑后果就简单地使用它。
Stoyanovich说:“当我们考虑构建一个人工智能工具时,我们应该首先问自己,这个工具在这里是否真的是必要的,或者应该由人类来做这件事,特别是如果我们想让人工智能工具预测什么是社会结果。”“我们需要考虑风险,以及当人工智能犯错时,有人会受到多大的伤害。”
作者注:Julia Stoyanovich是a关于人工智能的五卷本漫画可以从GitHub免费下载。