让计算机具备理解人类语言的人工智能(AI)工具已经出现了明显的种族和性别偏见。
这些发现令人担忧现有的社会不平等和偏见正在以新的、不可预知的方式得到强化,因为影响人们日常生活的大量决策正越来越多地由机器人做出。
在过去的几年里,谷歌翻译等程序的语言翻译能力有了显著提高。这些成就要得益于新的机器学习技术和大量在线文本数据的使用,并在此基础上对算法进行训练。
然而,最新研究显示,随着机器越来越接近于掌握人类的语言能力,它们也在吸收隐藏于语言中的根深蒂固的偏见。
巴斯大学的计算机科学家、论文合著者乔安娜·布莱森(Joanna Bryson)说:“很多人都认为这表明人工智能(AI)存在偏见。不,这表明我们有偏见,人工智能正在有样学样。”
但布莱森警告说,人工智能有可能强化现有偏见,因为算法与人类不同,可能无法有意识地抵制学到的偏见。“危险在于,你拥有的人工智能系统没有一处零部件明确需要依靠道德观念驱动,这就不好了,”她说。
上述研究发表在《科学》杂志上,重点关注一种名为“单词嵌入”机器学习工具,后者已经改变了计算机解读语音和文本的方式。有人认为,下一步科技发展将自然而然地涉及到开发机器的类人化能力,如常识和逻辑。
“我们选择研究单词嵌入的一个主要原因是,近几年来,它们已帮助电脑在破解语言方面取得了巨大成功,”这篇论文的资深作者、普林斯顿大学计算机科学家阿尔文德·纳拉亚南(Arvind Narayanan)说。
这种方法已经在网络搜索和机器翻译中使用,其原理是建立一套语言的数学表示式,依据与每个单词同时出现的最常用单词,将这个词的意思提炼成一系列数字(也就是词向量)。也许令人惊讶的是,这种纯粹的统计方法似乎能够捕捉到每个词所在的丰富的文化和社会背景,这是字典无法定义的。
例如,在数学“语言空间”,与花朵有关的词汇往往与描绘心情愉悦的话语聚集在一起,而与昆虫相关的词汇则往往与心情不愉快的词汇同时出现,反映出人们对昆虫与花朵的相对特点所达成的共识。
最新的文件显示,人类心理实验中一些更令人不安的隐性偏见也很容易被算法捕获。“雌性”和“女性”与艺术、人文职业和家庭的联系更紧密,“雄性”和“男性”与数学和工程专业更为接近。
而且,人工智能系统更有可能将欧美人的名字与诸如“礼物”或“快乐”之类的愉快词语联系在一起,而非裔美国人的名字通常与不愉快的词语联系在一起。
研究结果表明,算法与隐式联想测试拥有同样的偏见,也就是把表示愉快的单词与(美国和英国的)白人面孔联系起来。
这些偏见会对人类行为产生深远的影响。一项先前的研究表明,相对于非洲裔美国人,如果申请者的名字是欧洲裔美国人,即使简历内容相同,后者所能获得的面试邀请将比前者多出50%。最新的研究结果表明,除非采用明确的编程来解决这个问题,否则,算法将与现实社会一样,充斥着相同的社会偏见。
“如果你不相信种族主义与姓名存在联系,这就是例证,”布莱森说。
研究中使用的机器学习工具是在被称为“通用爬虫”语料库的训练数据集中接受训练的,其中的8400亿个词语都是从网上公布的材料中选取的。当研究人员把训练数据集换成谷歌新闻的数据对机器学习进行训练时,也出现了类似结果。
牛津大学数据伦理和算法领域的研究人员桑德拉·沃彻(Sandra Wachter)说:“世界存在偏见,历史数据存在偏见,因此,我们得到带有偏见的结果,不足为奇。”
她补充说,算法不仅代表一种威胁,也可能为采取适当方式解除和对抗偏见提供机会。
“至少利用算法,我们可能知道算法会在什么时候出现偏差,”她说。例如,人类会在解释为何不雇佣某人时说谎,与此相反,算法不会撒谎,不会欺骗我们。”
然而,沃彻说,问题在于如何从旨在理解语言的算法中消除不恰当的偏见,同时又不剥夺它们的解读能力,这将是具有挑战性的工作。
“原则上,我们可以建立一些系统对带有偏见的决定进行检测,然后采取行动,”沃彻说,并与其他人一起呼吁建立一个人工智能监管机构。“这是一项非常复杂的任务,但作为一种社会责任,我们不应回避。”(斯眉)