别被自己无意识的性别歧视耍了

近日,联合国教科文组织发布的一份报告指出,诸如苹果的siri、亚马逊的Alexa等大多数AI语音助手

近日,联合国教科文组织发布的一份报告指出,诸如苹果的siri、亚马逊的Alexa等大多数AI语音助手潜藏着性别歧视,它们几乎都默认女性的名字和声音,并被设置成千篇一律的、顺从的女性形象,而解决这一问题的办法是尽可能创造性别中立的助理声音,并建立系统来阻止基于性别的侮辱。

性别歧视是指仅基于某人的性别,而非其个人能力或个性,对其作出判断。女声语音助手不一定涉嫌性别歧视,但如果以性别作为评判标准,强行设定其女性天生顺从和谦卑的服从形象,并如教科文组织报告所说,“用女性化的语音助理来迎合言论攻击或随时随地地调情”,则毫无疑问是对女性的贬低与歧视。

其中,饶有意思的是不少科技产品的人工智能系统是默认使用女性声音。“默认”这个操作是潜藏的,也意味着作为使用者的我们对其选择沉默承认或放任不管,而导致这种反应的很大原因,在于我们意识不到潜藏在身边的性别歧视,对其习以为常。

很多时候性别歧视不是一种主观恶意,而是一种无意识的自动的偏见。意识不到潜藏的性别歧视,这个问题比性别歧视本身更令人无力。我们控制不了无意识的性别歧视的发生,因为这是我们从生活环境、社交以及成长文化中所学到的联想。

无意识的性别歧视根基于我们从社会中所学到的对于性别角色分工的联想,当我们说到某一种性别时,总会在脑中对这一性别形成特定的固有想象,如“男人应该……,女人应该……”,容纳不了与“应该”后面不一样的东西。潜藏于身边的性别歧视,已经渗透在日常的学习、工作与生活中,无论是男性还是女性,都体验过性别歧视带来的不平等待遇,“女孩子适合文科男孩子适合理科”“男人要赚钱养家女人要相夫教子”“女孩子不用这么努力”“男儿有泪不轻弹”……久而久之,我们更多的认为这些话语理所当然:男性将自己的目标定为成功、强者,克制着情感的表达;女性不自觉地把自己看作弱者,期待所谓强者的优待。实际上,这已经形成人们脑中对性别根深蒂固的刻板印象。

要减少这种无意识的性别歧视,就要抛掉刻板印象,把每一个人都看做独特的个体,重视个体间的差异性,不因为性别而着急地对个体进行分门别类,不用固定的模子去塑造和定义性别。

然而,在意识到潜藏的性别歧视这件事上也无需“草木皆兵”、过于敏感,因为性别歧视既不是针对男性也不是针对女性,而是对人个性的压迫。不将男女性别对立起来,不按照僵硬的性别刻板印象去约束、规训或塑造自己的个性与人生,不被世俗眼光所约束,坦然地接纳自己,做出不压抑个性而自由的选择,意识到无意识的歧视,才能防止我们被自己的意识耍了。

文/梁莉莉

打开APP阅读更多精彩内容