您的当前位置:主页 > www.3152326.com >
“你的裸照一键生成”令人害怕的不是算法是人心
【发布时间:2019-08-11】 【作者:admin】

  6月底,Motherboard发布了一款名为DeepNude的新应用,该应用承诺,“只需单击一下”,就可利用机器学习将任何一个穿着衣服的女性照片转换成完全赤裸的照片。

  与因快播锒铛入狱的王欣一样,这款软件的创始人也宣称“技术无罪”,声称他“只是一名技术爱好者”。

  这位来自美国加州大学伯克利分校的研究者,用世界上最前沿的对抗生成网络算法,为男性创造了更为便捷的,以供亵玩和窥探的裸照生成工具。

  事发之后,全网骂战,将deepnude骂至下线。虽然之后一波三折,余孽未消,但终究还是逃不过全网封杀。这个事件错就错在把女性当做公共消费对象,用性行为去定义她们,使她们失去人性,这些对女性和性行为的错误观念,会不断地给那些厌恶女性的人提供支持,为他们提供色情报复最有利的武器。这是一个恶性循环,是一个社会关系的圈套。

  Samantha Cole在Motherboard上关于DeepNude的最初报告中这样写道,“DeepNude还传播了这样一种观点,即除了宣称对女性身体的所有权外,它可以用于其他任何地方。”

  该软件承诺,只需单击一下就可以给任何女性脱衣,这使得制造裸照比以往任何时候都要简单——而且,进一步说,那些假裸照可以用来骚扰、敲诈或者公开羞辱世界各地的女性。

  但即便是DeepNude这款应用被下架,在它带来的技术进步和简易操作之外,仍然存在一个挥之不去的问题,这个古老且久远的问题,并不是从互联网上删除一段开源代码就能解决的。

  但即便是DeepNude这款应用被下架,在它带来的技术进步和简易操作之外,仍然存在一个挥之不去的问题,这个古老且久远的问题,并不是从互联网上删除一段开源代码就能解决的。

  假裸照历来已久。在DeepNude之前,有Photoshop;在互联网之前,有Screw。在20世纪70年代,色情杂志《Screw》用一张裸照来攻击女权主义者Gloria Steinem,在她照片周围都是阴茎,并且鼓励读者玩“把阴茎钉在女权身上”的游戏。20年后,《Spy》杂志脱了时任第一夫人希拉里·克林顿的衣服,1993年2月刊的封面上展示了她穿着紧身衣的形象。

  事实上,作为一个长期趋势的最新版本,DeepNude的地位已经得到了一些拥护者的支持。“你可以用DeepNude做的,也能用Photoshop做得很好。”该程序的创建者在接受Motherboard采访时表示。

  尽管科技可能会帮助DeepNude中名为Alberto的创造者完成目标,但实际上该应用程序并不是一个关于机器学习和人工智能潜力的项目。Alberto引用了一些小玩意,比如所谓的X光眼镜——他在20世纪60年代和70年代的杂志背面看到了这些广告——作为DeepNude的灵感来源。该应用所表达的欲望,我们已经在流行文化中反复看过,是对女性身体和性的控制的欲望,想要羞辱那些不合常规、用身体供大众消费的女性的欲望。

  Bitch Media的联合创始人Andi Zeisler也受到了那些X光眼镜广告的影响,不过她与Alberto的做法大相径庭。“侵犯隐私的想法使我非常不安,云南一村主任连任失败 当场捡起石头殴打当选者头部,”她还指出,并不只是漫画书背面的广告让她感到隐私被侵犯。像《陆军野战医院》《名扬四海》《鬼马校园》这样的电影,都有男性在女性不知情或未同意的情况下偷窥女性脱衣或洗澡的镜头。“那只是一个比喻,”Zeisler说。这暗示了一个信息,即女性的身体是用于男性消费的。那些抗拒这种“自然”状态的人,她们能自控的身体以及形象也会被强迫夺走。

  “女性不会独坐在卧室里制作物化男性的科技产品。” 社交媒体运动PostShame的发起人Adam MacLean说到,该运动鼓励有抱负的领导者摆脱与个人的轻率行为和性行为有关的耻辱,专注于解决国内面临的实际问题。男性当众脱光衣服,很少会像女性的裸体那样成为人们谈论的焦点。

  Jennifer Lawrence曝光的裸照已成为她多年来的公众形象;而Kanye West的裸照几乎没有引起人们的注意。社会正在把女性的性行为当做武器来对付她们——与AI或简单的图像处理相比,这才是DeepNude及其类似项目更为危险的地方。

  DeepNude最可怕的地方可能不是软件本身:相信人们都不愿意看到DeepNude和其他伪造的裸照成为对女性造成大规模骚扰和虐待的“科技先锋”。强行给女性脱衣或在未经同意的情况下散发裸照,这是令人憎恶的行为,甚至是犯罪行为,但是对于这种新兴的人工智能技术,法律还不够完善。

  Brooklyn是一家专门为色情复仇的受害者提供支持的律所,其律师Carrie Goldberg指出,“Deepfakes的最大不同之处在于法律如何处理它们,目前大多数关于色情复仇的法律只将传播真实图片定为犯罪行为,而没有将传播虚假图片定为犯罪行为。”对那些完全由人造形象造成骚扰的人而言,专注于个人形象的版权法和所有权的法律能够提供的帮助十分有限。

  如果只是讨论谁拥有正在传播的图片,或是这些图片是怎么被创造出来的,而忽视这些图片被传播后对女性所造成的伤害,那么不管有没有先进技术和人工智能,对女性的虐待和欺凌都会继续下去。

  今年1月,美国新任国会议员Alexandria Ocasio-Cortez发现自己陷入了裸照的丑闻风波——不是因为有人泄露了私人照片,也不是因为别人费时费力做的虚假照片,甚至不是因为别人利用机器学习和人工智能把穿衣服的图片变成裸照。她之所以陷入丑闻,仅仅是因为一张别人的裸照,而那上面有她的名字。

  值得称赞的是,Ocasio-Cortez没有被照片吓到,相反,她把话题从探究她的身体和性生活,引向了在未经当事人同意的情况下,传播真假裸照的虐待性质。我们都应该从这种回答中得到启发。

  与其呼吁停止科技进步,或是像打地鼠一样试图去超过DeepNude的最新版本,不如充分地去了解:女性也是复杂的人类,她们有权拥有隐私和丰富复杂的性生活——赋予女性与男性相同的同情、尊重和理解,这才是一种更为有效的策略。可惜的是,这还有很长一段路要走。曾道人黄金资料

  留言 点赞 关注我们一起分享AI学习与发展的干货欢迎关注全平台AI垂类自媒体 “读芯术”返回搜狐,查看更多