当前位置: 主页 > C生活港 >好容易学坏啊!研究指出 AI 人工智慧将会继承人类的「种族」 >

好容易学坏啊!研究指出 AI 人工智慧将会继承人类的「种族」

作者: 分类: C生活港 发布于:2020-07-02 浏览(611)


好容易学坏啊!研究指出 AI 人工智慧将会继承人类的「种族」

在过去的数年中,诸如 Google 翻译这样的程序在语言翻译方面进步神速,这一进步多亏了新的机器学习技术和大量可获得的在线文本数据,它们使得算法可以被检验。

人工智能(AI)工具彻底变革了计算机翻译日常用语的能力,但也表现出了显着的性别和种族偏见。根据《科学》杂誌中最新的研究表明, 随着机器越容易习得类人的语言能力,它们同样就越容易习得语言应用範式中根深蒂固的偏见 。

随着越来越多影响我们日常生活的问题让渡给机器人作出决定,现存的社会不平等和偏见以新的、不可预知的方式被强化,这一发现使这个噩梦萦绕人们心头。

巴斯大学的计算机科学家和论文的联合作者 Joanna Bryson 说:「许多人认为这表明了 AI 具有偏见。其实并不然, 这表明了我们是有偏见的,而 AI 正在学习这种偏见 」。

但 Bryson 同样警告说,AI 有着加强现存偏见的可能,因为不同于人类,算法无法自觉抵抗习得的偏见。她说:「危险在于 AI 系统不为道德所驾驭,一旦你拥有了这样的一个系统,这就糟糕了 」。

文字嵌入:获取单字背后的文化和社会背景含义

论文聚焦于机器学习工具,即「文字嵌入」,这种机器学习工具已经改变了计算机翻译演讲和文本的方式。有人声称下一步自然就是使机器发展出类人能力,比如具有常识判断和逻辑。

普林斯顿大学的计算机科学家和论文的资深作者 Arvind Narayanan 说:「我们选择研究文字嵌入的主要原因,是由于在最近几年里,帮助机器搞清语言方面的努力已经取得了令人惊叹的成功」。

这一已经应用于网页检索和机器翻译的方法通过建立起一种语言的数学化表述来发挥作用。在这种数学化的表述下,文字和基于其一同频繁出现的意义一道,被抽象为一系列数字(即向量)。儘管这令人惊奇,但算法似乎正在以一种字典也不能定义的方式,获取一个单词背后丰富的文化和社会背景含义。

比如,在数学化的「语言空间」中,「花」的单词总是与具有褒义的词彙相联繫,而「昆虫」的单词则相反,反映出人们对昆虫和花不同价值的共同观点。最新的论文展示出,一些在人类心理实验中更为棘手的隐性偏见同样可以被算法轻而易举地习得。「女性」和「女人」更易于同艺术人文类岗位和家庭联繫起来,而「男性」和「男人」则是与数理和工程类岗位 。同时,人工智能係统更有可能将欧裔美国人的名字与褒义词联繫起来,比如「天赋」或「快乐」,而非裔美国人的名字一般则更易与贬义词相联繫。

这一发现表明,人们(至少在英美)在隐性的关联测试中将褒义词与白面孔联繫在一起,算法习得了这一偏见。

这些偏见会对人类行为产生深远影响。曾有研究表明,对于一份完全相同的简历,有着欧裔美国人名字的候选人会比有着非裔美国人名字的候选人更有可能获得面试邀请,这一可能性超过了 50%。最新的结果显示,除非明确进行了程序化处理,算法将会充满同样的社会偏见。

「如果你不相信人名和种族主义之间存在着联繫的话,这就是证据。」Bryson 说。

该研究中,机器学习工具的检验基于一个名为「网络爬虫」的资料库——它包含了在线发表的资料,包括 8400 亿个单词。使用 Google 新闻的数据做检验,也得到了相似的结果。

算法为处理偏见提供机会

牛津大学的数据伦理和算法的研究者 Sandra Wachter 说:「世界是有偏见的,历史数据是有偏见的,因此我们得到了有偏见的结果也就不足为奇了 」。她补充道,「与其说算法代表着一种威胁,它们更能为处理偏见提供机会,以及在合适的时机消除这些偏见」。

「至少我们可能在算法出现偏见的时候获悉这种偏见,」她说,「而人类呢,却可以在不雇用某人的原因上撒谎 。相比而言,我们不用指望算法欺骗我们。」

但是 Wachter 声称,未来的挑战在于,如何在消除算法中不合理的偏见之余,依旧保留它强有力的翻译能力,毕竟算法是设计来理解语言的。

「理论上我们可以建立系统检测有偏见的决策并对此採取行动,」Wachter 说,她与其他人一道,呼吁建立起针对人工智能的监管,「这是一项複杂的任务,但却是我们社会不能迴避的责任」。

——