• 发文
  • 评论
  • 微博
  • 空间
  • 微信

人工智能正在走向一条更黑暗的路?纽约大学最新研究:智能系统加剧社会偏见

CyberMed | 赛博医客 2022-07-15 11:13 发文

你刷抖音吗?抖音是不是每天都在推荐你喜欢的同类产品给你?你喜欢看头条吗?头条上你喜欢的内容是不是越来越一致?

你觉得你活在一个回音壁里面,每天看到的世界是你通过这个屏幕看到的世界;

没有共识已经成为当前最大的共识。你觉得这就是最大的偏见了:系统造了一个房子给我们,回音壁效应越来越明显。于是人们越来越多的依赖人工智能(AI)来进行高效和客观的决策,希望能减少偏见、缩小不平等的状况。

悲哀的是,这个系统本身就是存在偏见的。存在于社会本身、存在人的观念里的偏见,在互联网的世界中移植了这种不平等,而技术的发展让这种偏见正在日益加剧。人类决策者使用这些算法可能会导致现有差距的传播,而不是减少。

为了证实这一假设,纽约大学的研究人员测试了社会性别不平等和算法搜索输出之间的关系,然后研究了这种输出对人类决策的影响。结果表明,在两个多国样本中(n=37,52个国家),国家层面的性别不平等与谷歌图片搜索结果中性别中立的关键词 "人"(用一个国家的主导语言)更多的男性主导有关,这揭示了社会层面的差异和算法输出之间的联系。

接下来,在对人类参与者(n = 395)进行的一系列实验中,研究证明了与高不平等和低不平等的算法输出的相关性别差异引导了有性别偏见的原型形成,并影响了新情景下的雇佣决定。这些发现支持了这样的假设:社会层面的性别不平等在互联网搜索算法中被重现,而这反过来又会影响人们的选择。

这项研究名为“Gender bias in search algorithms has effect on users, new study finds”,作者为Madalina Vlasceanua 、David M. Amodioa。该研究证实了一个社会内的不平等程度是否与算法输出中的不平等模式有关;如果是的话,接触这种输出是否会影响人类决策者按照这些不平等行事。

首先,研究人员借鉴了全球性别差距指数 (GGGI),其中包含 150 多个国家的性别不平等排名。GGGI 代表了 153 个国家在经济参与和机会、教育程度、健康和生存以及政治赋权方面的性别不平等程度,从而为每个国家提供了社会层面的性别不平等分数。

接下来,为了评估搜索结果或算法输出中可能存在的性别偏见,研究者检查了应该以相同概率指代男性或女性的词,例如“人”、“学生”或“人类”,是否更常见的假设是一个男人。

在这里,他们在 37 个国家/地区对一个国家内的“人”进行了谷歌图像搜索(使用其主要的当地语言)。结果表明,在性别不平等较大的国家,这些搜索产生的男性图像比例较高,这表明算法性别偏见与社会性别不平等密切相关。

三个月后,研究人员对 52 个国家的样本重复了这项研究,其中包括第一项研究的 31 个。结果与最初研究的结果一致,重申社会层面的性别差异反映在算法输出(即互联网搜索)中。Vlasceanu 和 Amodio 随后试图确定接触此类算法输出(搜索引擎结果)是否可以以与预先存在的社会不平等相一致的方式塑造人们的看法和决策。为此,他们进行了一系列实验,共有近 400 名(n=395)美国女性和男性参与其中。在这些实验中,参与者被告知他们正在查看可能不熟悉的四种职业的谷歌图像搜索结果:蜡烛师、布艺师、围棋师和宝石匠(chandler, draper, peruker, and lapidary)。

选择每个职业的图像集的性别构成来代表全球性别不平等得分高的国家(匈牙利或土耳其大约 90% 的男性和 10% 的女性)以及那些在来自上述 52 个国家的研究显示,全球性别不平等得分较低(在冰岛或芬兰,大约 50% 的男性对 50% 的女性)。这些数据帮助研究人员模仿不同国家的互联网搜索结果。

在查看搜索结果之前,参与者提供了关于每个职业的原型判断(例如,“谁更可能是一个 peruker,男人还是女人?”),作为他们感知的基线评估。在这里,女性和男性的参与者都认为这些职业的成员更有可能是男性而不是女性。然而,当在查看图像搜索结果后再问这些相同的问题时,处于低偏见国家的参与者将他们的男性偏见原型与基线评估相当。相比之下,那些处于高度不平等状态的人保持了他们对男性的偏见,从而加强了他们对这些原型的看法。

然后,研究人员评估了互联网搜索驱动的偏见可能如何影响招聘决定。为此,他们要求参与者判断男性或女性在每个职业中被聘用的可能性(“哪种类型的人最有可能被聘为 peruker?”),并且当呈现两个求职者的图像时(一名女性和一名男性)申请该专业的职位,以做出自己的招聘选择(例如,“选择这些申请人中的一个作为 peruker 的工作。”)。

与其他实验结果一致,与暴露在高不平等环境下的图像集相比,暴露在低不平等条件下的图像会产生更平等的男女招聘倾向的判断,并且选择女性求职者的可能性更高。研究的作者Vlasceanu 和 Amodio 表示说,“这些结果表明,社会、人工智能和用户之间存在偏见传播的循环,”并补充说,“调查结果表明,互联网搜索算法中的社会不平等程度是显而易见的,接触这种算法输出可能会导致用户以加剧社会不平等的方式思考和采取行动。”

声明:本文为OFweek维科号作者发布,不代表OFweek维科号立场。如有侵权或其他问题,请及时联系我们举报。
2
评论

评论

    相关阅读

    暂无数据

    CyberMed | 赛博医客

    专注大健康科技领域的“古法码字人...

    举报文章问题

    ×
    • 营销广告
    • 重复、旧闻
    • 格式问题
    • 低俗
    • 标题夸张
    • 与事实不符
    • 疑似抄袭
    • 我有话要说
    确定 取消

    举报评论问题

    ×
    • 淫秽色情
    • 营销广告
    • 恶意攻击谩骂
    • 我要吐槽
    确定 取消

    用户登录×

    请输入用户名/手机/邮箱

    请输入密码