baby 范冰冰 杨幂也拍AV?一场集体意淫的狂欢(组图)



Angelababy、范冰冰、杨幂…

当她们成为色情片的“女主角”

AI换脸黑科技,

何时成为了一场色情的狂欢?

前段时间,一个“杨幂换脸朱茵”的视频在微博上走红。

视频中,杨幂饰演的“黄蓉”眼神灵动、表情丰富,演技一下子得到了爆炸式增长。

不少网友直呼:

太惊艳了!杨幂要有这演技,我绝对路转粉!

还有不少人好奇:这是什么黑科技?能让流量一秒化身演技派?

这黑科技,便是时下最火热的“AI换脸”。

AI换脸,又叫Deepfake,是人工智能的一个分支。简单来说,就是利用人工智能算法,将一个人的脸合成到另一个人的视频中。

当使用的数据足够多,相关计算能力足够强大时,经过AI处理的视频,很难辨别出真伪。

上图中的杨幂便是如此,若非广大网友对杨幂的演技有足够的认知,吃瓜群众很可能会以为这就是她拍摄的新剧。

很多人第一次知道AI换脸技术,便是通过这则视频。

人们惊艳于AI换脸的强大之时,并不知道,这项黑科技,已被有心之心用于非法牟利,甚至形成了一条黑色产业链。

AI换脸技术在国外社交媒体上初登场,便是在一部“色情片”中。

这部“色情片”有些不同,她的女主角,不是广为人知的“各位老师”,而是著名女演员、《神奇女侠》的主演盖尔·加朵。

以上动图并非盖尔·加朵本人

这当然不是盖尔·加朵本人为了赚钱、或者是其他的商业拍摄,而是有人利用了AI技术,将她的脸P到了一位色情女演员的脸上。

遭此恶意丑化不仅只有盖尔·加朵一人,还有其他几位著名的好莱坞女演员。

艾玛·沃特森


以上动图并非艾玛·沃特森本人

娜塔莉·波特曼


以上动图并非娜塔莉·波特曼本人

艾玛·沃特森、斯嘉丽·约翰逊、二丫等人也纷纷中枪。

在国外论坛Reddit上,甚至有一个专门的deepfakes板块,聚集着一批网友,互相交流分享最新的“影片”。

还有人在上面“开班授课”,讲解如何通过AI换脸,将自己喜欢的女明星P到视频中。

国内的明星也没能“逃过一劫”。

在一些色情网站上,便有网友们自己制作的换脸影片。

Angelababy、范冰冰、杨幂……只有你想不到,没有他们做不了。

从一些流出的画面中可以看到,这些视频尺度之大、技术之逼真,令人难以想象。

还有一些恶臭的网友在微博上评论,已经看过这些人的小视频了,甚至有人回复:XXX的不错!

在他们眼里,视频是否通过合成已经不再重要了。

重要的是视频中的“这张脸”,到底能不能满足他们内心意淫的需要。

人性之恶,展露无疑。

有需求的地方,便有生意。

几乎不难想象,“AI换脸”,已经在不知不觉中形成了一条灰色产业链。

有媒体曝光了些网站上售卖的女明星淫秽视频价格,极其便宜。

4块钱就能买到一部,158元,可以打包买走700多部。

交易市场遍布微博、贴吧、以及二手物品交易平台。

之前,在某著名二手物品交易平台,输入关键词“AI换脸”,便会跳出一连串的商品。(现因被举报已经下架了)

其中有现成的视频,也可以买教程回去自学,价格从几块到几十不等。

AI换脸技术的,听起来复杂,但实际操作起来并不难。

有知情人透露,给“色情片女主角换脸”这样的视频需要的硬件配置并不高,只要一个普通的显卡,加上一点基本的知识就能操作。

也不需要太多的材料,只要几十张照片就可以。照片越多,相似度越高。

曾经有人便给女主播阿冷做了“AI换脸”,视频中,女主播的脸不断变换成唐嫣、杨幂、范冰冰等人,毫无违和感。

如此低的门槛和成本,意味着人人都可以参与其中。

AI也成为了一把双刃剑,在推动着科技发展的同时,也将女性群体推入了深渊。

几年前,中国第一女车模兽兽的“艳照门”事件或许已经淡出了人们的视线,但类似的故事,却仍然源源不断的在互联网、甚至是我们身边上演。

情侣分手了,男方不同意,威胁女方要将恋爱期间的裸照、亲密视频公布在互联网上,令对方名誉不保。

如今,这样的“色情报复”似乎已经过时了。

因为在AI黑科技之下,只需要花几块钱,你就能让对方“名誉扫地”。

而这样的事情,已经发生了。

去年4月,印度的一名调查记者Rana Ayyub,因为揭露了一些官员黑幕,便遭遇了“色情报复”。

印着她脸的“小视频”不断传播,她的家庭地址被泄露、还收到了强奸威胁。

不少人在社交网站上给她发去私信,问她“多少钱一晚?”,铺天盖地的辱骂更是席卷而来……

甚至她的家人朋友都不相信她,问她“视频上的人是不是你?”

Rana饱受折磨,一度精神奔溃,最后不得不住院接受治疗。

别以为这样的事只发生在男女极不平等的印度,在发达国家,类似的事件一样在发生。

在deepfakes论坛中,有网友便收集了大量的自己暗恋的“女神”照片,请求各路大神将“小电影”的女主角换成自己暗恋的女生。

这样的视频做出来,会被用来做什么,无需思考我们也心知肚明。

成为被意淫的工具、茶余饭后的谈资、甚至很可能会在一个小圈子里到处传播。

届时,人人都可以宣称:

“我看过你的‘那种’视频。”

没有人在意视频是不是真的,也没有人在意视频中的人到底是谁,人们在意的只是视频中的“那一张脸”。

“看的爽”、“满足了”,便是他们的唯一目的。

令人遗憾的是,这样的“色情报复”,可能还不在法律的保护范围之内。

“未经他人同意擅自使用照片制作色情视频”,侵犯了当事人的肖像权,但再往深究,法律仍存在着一片灰色地带。

公众人物尚且有财力、精力通过法律手段来维护自己的名誉,但对于普通人来说,维权之路十分艰难。

女记者Rana寻求印度法律和警方帮助时,不仅没能得到帮助,反而被再次侮辱。

Rana表示,警察拒绝提交报告,甚至在观看视频时还面带微笑。

这就是赤裸裸的现实,身为受害者的女性们只能默默承受这一切,即便她们什么都没有做错。

科技,本该带给人类美好。AI技术,可以在电影拍摄中提供极大便利,还可以复原逝去的人。

张国荣纪念日时,便有粉丝利用AI换脸技术,缅怀先人。

但总有邪恶之人,利用美好的东西来做污秽之事。

“AI换脸”的“色情黑色产业链”宛如一颗种子,正在黑暗处悄悄萌芽。

今天的“女主角”是Angelababy、范冰冰、杨幂……

明天,“女主角”有可能是任何一个人。

你的前男友、和你闹翻了的朋友、工作上有矛盾的同事……任何一个人,都可以用“色情”的方式来报复你。

女性,也将再次被置于危险的境地。

下一个受害者,又会是谁?

推荐阅读