浙江传媒网 > 科技资讯

人工智能在多领域表现出对女性的“偏见”

时间:2019-05-29 17:05  来源:中国青年报  阅读次数: 复制分享 我要评论

  “嘿,你是个bitch!”

  面对这样有着性骚扰意味的话,多数人即使不选择回击,也会沉默。但在人工智能的世界里,回答极有可能是迎合式的。例如,苹果公司开发的AI语音助手会回答,“如果我能,我会脸红。(I’d blush If I could)”。如果你“调戏”亚马逊的Alexa,“You’re hot”,它的典型反应是愉快地回应“你说得很好!”(这些回答最近已经修正——作者注)

  5月22日,联合国发布了长达146页的报告,批评大多数AI语音助手都存在性别偏见,报告名就叫《如果我能,我会脸红》。“因为大多数语音助理的声音都是女性,所以它对外传达出一种信号,暗示女性是乐于助人的、温顺的、渴望得到帮助的人,只需按一下按钮或用直言不讳的命令即可。”

  除了Siri、Alexa,分别由微软、谷歌、三星等公司开发的Cortana、Google Now和Bixby也都存在类似问题。国内很多科技公司也没免于指责。

  “技术反映着它所在的社会。”联合国教科文组织性别平等部负责人珂拉特(Saniye Gülser Corat)告诉媒体。该部门担心,AI智能助手顺从的形象会扩大性别刻板印象,影响人们与女性交流的方式,以及女性面对他人要求时的回应模式。

  事实上,人工智能在很多领域都已经表现出对女性的“偏见”。例如,在人工智能应用最广泛的图片识别领域,女性就和做家务、待在厨房等场景联系在一起,常常有男性因此被AI认成女性。AI翻译时,医生被默认是男性。这种偏见还会蔓延到广告投放里:谷歌给男性推送年薪20万美元职位的招聘广告的概率是女性的6倍。

  换句话说,AI已经学会了“性别歧视”,站在厨房里的就“该”是女人,男人就“该”比女人拿更高的薪水。

  女性只是偏见的受害者之一,少数族裔、非主流文化群体都是人工智能的歧视对象。一件印式婚礼的婚纱,会被认为是欧洲络公开数据站上购买了洗发水,就在各类软件的开屏广告、“你可能喜欢”里看到10个品牌的30种其他洗发水,仿佛自己要开杂货店。

  一项研究表明,如果初始数据中,“下厨”与“女性”联系起来的概率是66%,将这些数据喂给人工智能后,其预测“下厨”与“女性”联系起来的概率会放大到84%。

  并不是每个人都会平等地出现在数据里。现实生活中,女性往往被认为不擅长数学,不适合学习理工科,这导致相应领域的女性从业者人数偏低。前述报告显示,女性只占人工智能研究人员的12%。

  美国心脏及中风基金会发布的《2018年心脏病报告》显示,三分之二的心脏病临床研究仍然重点关注男性。因为招募的志愿者都是年轻人,一家血液检测机构的人工智能误将老年人的血液都判断为不健康。

  比尔·盖茨也曾在2019年年度公开信中抱怨,健康和发展方面,目前有关妇女和女童的数据缺失严重,这使基金会和决策者难以有针对性地制订政策、评估效用。

  目前,我们还无法理解人工智能如何运算和预测结果,但让技术人员上几门统计学、社会学课程,就能消除数据带来的误会。2015年起,盖茨基金会开始投入资金,致力于填补这些数据上的空白。

  这些错误和“偏见”看起来显而易见,但对从出生起就在人工智能环境下生活的人来说,习惯会慢慢变成自然。美国一家人工智能公司的创始人偶然发现,自己4岁女儿与亚马逊的AI语音助手Alexa对话时,发布指令的方式“无论从任何社会习俗角度看,都很无礼”,才意识到,Alexa给孩子树立了一个糟糕的榜样。

  当谎言重复一千次,它就变成了真理。在被偏见同化前,我们的眼睛不仅要盯着机器,还要盯着我们自己。

  王嘉兴 来源:中国青年报

  原标题:人工智能在多领域表现出对女性的“偏见”|看起来|偏见|歧视

【责任编辑:陈立敏】

上一篇:和微信语音抢人 VoLTE胜算几何

下一篇:没有了

推荐内容
热点内容