跨界联合,终止性别暴力

你在抵制这个幼女色情游戏时,你的“裸照”却在全网通行
0

你在抵制这个幼女色情游戏时,你的“裸照”却在全网通行

10 十月 2019 - 12:10

最近,一款名叫Lost life的游戏引起了众怒。

 

 

网友们的气愤不无道理,这款所谓的“2D模拟养成游戏”,却无论从剧情还是语音上,都包含着大量的儿童色情内容。

完完全全是第一视角的恋童癖游戏!

 

 

我们说,游戏是把双刃剑。

在这里,这句话并不是“玩物丧志”和“玩物怡情”之争,而是回到游戏本身:

有的游戏能帮助你识别PUA、抵制家暴;而有的游戏却行走在犯罪边缘,对儿童造成赤裸裸的威胁!

同样是“双刃剑”的,还有这些游戏所赖以生存的科技。

你也许想不到,科技,在帮助我们实现更好的生活的同时,也实实在在地让女性的处境更为艰难。

 

技术如何服务于性别压迫?

还记得换脸软件ZAO引发的热潮与恐慌吗?

 

△“你ZAO吗?你在换脸,别人在想要你的脸”

 

从刷爆朋友圈到被全民抵制,ZAO的安全隐患让无数用户真切感体会到了威胁:

任何在网上留下面部信息的女性,都有可能成为人脸识别技术侵犯的对象。

可能侵犯你的,不再仅仅是现实生活中的熟人,网络上任何一个素未谋面的陌生人,都有机会对着你的照片想入非非!

而ZAO并不是孤例,它大有前世所在。

比如火遍外网的软件Deepfake,就可以通过换脸技术来把黄色视频中的女性变成任何人。

只要一张照片,就可以零成本享受盖尔·加朵的“色情表演”。

还比如,今年6月开发出的Deepnude软件,能够借助神经网络技术来一键“脱下”女性身上的衣服,同样引发了颇多争议。

从这些例子中,你能清楚地看见科技是如何置女性于险境的。

此外,科技助长性别压迫,还有许多不同的目的和形式,我们不妨来回顾几个经典案例。

2019年2月,美国参议院要求苹果和谷歌下架应用“Absher”。

 

 

这款应用由沙特政府出台,可以用于监测该国女性的出行情况,包括出国旅行的次数、旅行持续的时间,以及何时从何处机场出发,甚至可以随时取消对这些女性的出行许可。

这样的软件,不就是戴在沙特妇女脚上的电子镣铐吗?

同年5月,“原谅宝”的开发者宣布,他们的app在半年内已经成功识别了十万多“从事不可描述行业的小姐姐”,为广大“老实人”完成了初步过滤。

 

△“原谅宝:一个让人无所遁形的神器”

 

借助人脸识别来“起底”女性,并对她们进行荡妇羞辱,原谅宝实现了对女性的精神控制,从道德的制高点上让她们无地自容。

此外,苹果的siri、微软的Cortana等智能语音助手则提供了另一种隐性的性别压迫。

这些虚拟助手都被设计成温柔耐心的女性形象,甚至在被问及一些性骚扰的话题时,也只会给出顺从的回答。

比如,当用户对语音助手说“你是个荡妇”时:

SIri会作出“如果我能,我会脸红”等回答;

Alexa的回答是“谢谢你的反馈”;

Contana会进行网络搜索;

谷歌语音助手则会说“对不起,我不明白”。

这些虚拟角色在无形中为男性提供了一种情绪安抚、欲望填补的服务,也巩固了“女性应当为男性提供情感劳动”的性别偏见。

当然,还有数不胜数的针孔摄像机偷拍事件,威胁着女性的隐私和人身安全。

谁知道未来,那些藏在黑暗中的红点会进化成什么样呢?

所有这些技术,都致力于让男性对女性的控制和侮辱变得易如反掌。

在技术开发的帮助下,性别暴力仿佛乘上了直通车,可以方便直接地把触角伸到它想要的任何地方。

 

技术是性别中立的吗?

即便科技所造成的性别压迫已经成为一个事实,但依然有人会为技术做这样一种辩护:

技术是一个中性工具,它只是被别有用心的人用在了性别压迫上;坏的是企图控制女性的人,而技术本身是无辜的。

就像美国步枪协会常用的口号那样:枪不杀人,人杀人。

然而这种说法是合理的吗?并不。

一个基本的现实状况是:整个技术发展史都是一个男性主导的历史,在这种情况下发展起来的技术,本身就具有很强的男性气质(控制、支配)。

技术——至少我们目前的技术,并不是一个简单的性别中立的工具。

女性在科学、技术、工程等研发领域中一直遭受着系统性歧视,这些领域倾向于将女性视为能力较弱、兴趣较低的研究人员,认为女性并不适合这些行业,因为科技本身就是男性的竞技场。

联合国秘书长安东尼奥·古特雷斯(Antonio Guterres)表示,女性在全球的研发工作中所占比例不到30%。

德国学者K.H. Sørensen则指出,即便在挪威这样在女性问题上非常进步的国家中,女性科学家和工程师所占的比例也很小,可能连十分之一都不到。

科研过程中,女性的缺失,导致研发出来的技术成果往往会忽略女性使用者的感受,忽略技术对女性群体的潜在影响。

试想,如果研发人员都是男性,他们能对女性需求和体验感同身受吗?能自发地为改善女性利益做什么吗?

一个最明显的例子在医药研发上。

《神经科学与科学》杂志的一项研究显示,2009 年,在神经科学研究中,实验室雄性哺乳动物的数量是雌性的 5.5 倍。

而在生理结构上,男女有很大的差别,因此也就导致试验的结果更适用于男性。

 

△在实验动物电击测试里,第一次电击后,会“乱窜”的小白鼠(darters)在性别上有很大差别

 

不仅动物实验,在医学临床中,“药物公司也更青睐用男性进行药物测试,因为男性没有像女性那样每月波动的荷尔蒙周期,选择男性进行测试更简单。”

但是,男性和女性的身体对于药物副作用的反应是很不相同的。这些研发出来的药物,往往忽视女性身体的特殊性,对女性的身体伤害也就更大。

在美国1997-2000年间被强制下架的10种药物中,有8种对女性身体健康的威胁更大。

更可怕还在后面,性别偏见显然影响了技术的中立,而技术,却已经自发地去实践这份偏见了。

2018年10月10日,路透社报道,亚马逊的机器学习专家表示,亚马逊设计的 AI 招聘算法中暗含了对女性求职者的偏见。

在读取到带有“women's(女性、女子)”的相关词时,算法会降低简历的权重;

而对于简历上求职者提交的自我描述文案,算法也会更多地向“执行”(executed)、“攻占”(captured)等在男性求职者简历中的高频词汇倾斜。

此外,一些图像识别AI,则往往将女性与厨房、购物等特定环境或行为联系在一起。

如果说,AI真的是未来发展的大势,那么世界上的所有女性,该如何对抗这份不掺杂“私人情感”的、“中立”的性别偏见?

 

“走向一种女性化技术?”

总的来说,技术背后的性别歧视是全方位的:

不仅在人员选拔上,更体现在研发过程、产品应用的方方面面。

既然技术不是性别中立的,而是负载着巨大的男性价值和色彩,那么,我们有可能拥有一种“女性化技术”(feminized technology)吗?

对此,德国学者K.H. Sørensen给出的回答是,建立一种女性化技术在未来是可能的,但必须首先突破当下的限制,例如人员配置的壁垒。

让足够多的女性参与到科研过程中来,让女性的“关怀价值”发声,才能改变技术研发的思维和方向。

技术,是汹涌迈进的潮水。

而女性,需要去开垦、去拓宽新的河道,才能让它福泽整个群体。

这片属于女性的大地,别让它枯竭啊。

 

参考资料:

参见穆旼. “苹果谷歌变帮凶!这个沙特APP害百万女性被监视”,发表于橙雨伞公众号,2019-05-05

参见余一文.” 对性骚扰顺从的siri们:虚拟女性在巩固性别偏见?”,发表于澎湃思想市场公众号,2019-09-03

参见王贝宁、顾金涛. “倾听她们说:科学界最不可缺少的风采”,发表于知识分子公众号,2018-02-13

Knut H. Sørensen (1992), 'Towards a Feminized Technology? GenderedValues in the Construction of Technology', Social Studies of Science, 22(1), 5-31

https://new.qq.com/omn/20190715/20190715A0E2EJ00.html

http://news.ifeng.com/gundong/detail_2012_11/10/19010129_0.shtml

参见啖先且.” 实验室里的性别不平等:缺的不只是女性研究者!”,发表于橙雨伞公众号,2017-09-12

 

作者:脸脸

不入流的平权思想关注者

P.S. 本文观点仅代表特约作者个人观点,部分图片来源网络。

(未经许可,禁止转载)

 

发表评论

Current URL