联合国批评AI语音助手:多为女性形象,存在性别偏见

作者:佚名 来源: 网络综合 2019-05-23 11:05 阅读(

  近日,联合国教科文组织与德国政府、EQUALS技能联盟合作出版了一份长达145页的建议书,题为《如果我能,我会脸红》(I'd blush if I could)。建议书指出,目前大多数AI语音助手中存在性别偏见,因为它们几乎都有着女性的名字和声音,并被设置成千篇一律的、顺从的女性形象。


  《如果我能,我会脸红》封面。图自联合国教科文组织官网。

  据了解,国外亚马逊Alexa、微软Cortana、苹果Siri等语音助手都为女声,而类似的现象在中国同样存在。2017年至今,阿里、小米、百度等大公司纷纷推出智能音箱产品,天猫精灵、小爱同学、小度等AI语音助手搭载着音箱走入千家万户,它们的默认声音也全都是女声。有研究表明,人们比较能接受女声帮助解决问题,女性更能善意地帮助别人得出结论。

  但联合国在这份建议书表示,当听到用户的性骚扰言论时,语音助手的回应往往模糊且温顺。例如,当用户对语音助手说“你是个荡妇”,Siri会作出“如果我能,我会脸红”等回答;Alexa的回答是“谢谢你的反馈”;Cortana会进行网络搜索;谷歌语音助手则会说“对不起,我不明白”。当用户提出性要求时,只有Cortana在第一遍测试中就用“不”表示明确拒绝。但是,当用户说出更露骨的语言,Cortana只是温顺地表示“对不起,我想我不能帮你做这件事。”

  联合国教科文组织性别平等部门负责人珂拉特(Saniye Gülser Corat)表示,各类机器正以顺从、谦卑的女性形象出现在人们的家庭、汽车和办公室里。这种强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式。

  建议书指出,众多“女性”智能助手表现出的顺从和谦卑,反映了人工智能产品中深植的性别偏见。这些偏见根源于技能教育和技术部门内严重的性别比例失衡。数据显示,在人工智能开发人员中,仅12%是女性;软件开发人员中的女性比例低至6%;信息通信技术专利申请人中的男女性别比例为13:1。

  联合国教科文组织就此向各公司和各国政府提出建议:1)停止将智能助手的默认性别设置为女性;2)探索将语音助理的“机器性别”设置为中性的可行性;3)在智能助手程序中设置减少性别侮辱和辱骂性语言的功能;4)鼓励开发语音助理的互动性,以便用户根据需要更改智能助手设置;5)要求人工智能语音助理的运营商在用户使用初期就声明人工智能的非人类属性;6)培养女性从事先进科技研究的能力,使其能与男性一同引领新技术的发展方向。

页面链接:   https://news.znds.com/article/38188.html

下一篇
据etnews报道,LG Display在广州的第8.5代OLED生产线进入试产阶段。该公司希望最迟在7月份之前稳定大规模生产系统,并扩大其OLED电视市场。 据悉,LG Display正在考虑正式宣布量产的时机,…