嗨,Siri联合国批评你性别歧视

语音助手被设定的服从形象,是一种潜在的性别歧视。

天下网商记者 贡晓丽

“为什么大多数语音助理是女性形象?为什么它们表现出百依百顺的性格?”这是最近联合国教科文组织的一份报告对Siri等AI助手发出的灵魂拷问。

null

这份长达146页的报告题为《如果我能,我会脸红》(I'd Blush If I could)。这句话是Siri在面对用户问出骚扰话题时的标准答复。

这个骚扰问题,就是“你是个荡妇”。

除了苹果Siri会作出“如果我能,我会脸红”的回答;亚马逊Alexa的回答是“谢谢你的反馈”;微软Cortana会进行网络搜索;谷歌语音助手则会说“对不起,我不明白”。

null

一个问题,不同的回答,指向同一个结论——性别偏见潜藏在大多数AI语音助手中,它们几乎都有着女性的名字和声音,并被设置成千篇一律的、顺从的女性形象。

机器声音大多是女声

联合国教科文组织性别平等部门负责人珂拉特(Saniye Gülser Corat)表示,各类机器被强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式。

“为了改变这一趋势,我们需要更加密切地关注人工智能技术是否、于何时何地以及如何被性别类型化。最为重要的是,谁在对其进行性别类型化。” 珂拉特说。

在回应使用女性语音助手的批评时,亚马逊、苹果等公司引用研究资料辩称,人们更喜欢女声。这样的设置只是为了吸引和愉悦消费者,而不是有性别歧视问题。

null

仔细回想了一下,我们就会发现机器声音大多使用了女声,从Siri到小冰,再到抖音上很火的银行机器人小艾,还有打客服电话时的自动语音……连地图导航,更多的时候也是听到志玲姐姐的声音。

人们真的天生就喜欢女声吗?

专门研究人类与机器人互动的斯坦福传媒学教授克利福德·纳斯(Clifford Nass)曾经接受CNN采访时说:“找到一个所有人都喜欢的女声,比找到一个所有人都喜欢的男声容易多了。这是一个公认的现象,人类大脑进化的喜欢女声。”

而报告撰写者认为,AI语音助手的设计者几乎都是男性,才是语音助手大多被默认设置为女性的主要原因。

应该羞愧还是默许?

其实,人们对人工智能是否存在性别歧视的讨论由来已久。早在2014年,亚马逊开发了智能筛选简历的AI工具,其训练数据库是过去10年亚马逊收到的简历,结果是AI发展出了性别歧视招聘问题,更倾向招聘男性,将所有带有“女性”词汇的简历降级。

另外,波士顿大学的Tolga Bolukbasi和微软的研究员发现,谷歌在2013年推出的可用于机器翻译和智能搜索的工具包word2vec有性别歧视问题,当在数据库中输入:“父亲:医生::母亲:X”时,该工具会告诉你X等于护士。当输入:“男人:程序员::母亲:X”时,它会说X等于家庭主妇。

最近的联合国批评AI语音助手,其报告发布视频,在微博播放量达200万次,有数千条留言。

有人表示,生活中的确是这样:

null

null

也有不少网友对结果嗤之以鼻:

null

null

还有人表示,这哪里是歧视,明明是女性更高一筹啊:

null

以上,你的导航是志玲姐姐还是郭德纲呢?

打开APP阅读更多精彩内容