高科技换脸术DeepFake盛行
“眼见为实”Out了!

你听说过换脸吗?不是《盗墓笔记》里面小哥的易容术,也不是《聊斋》里面的画皮,当然也不是你熟悉的PS技术,而是真正的AI硬核技术!

a

2019年时,就曾有杨幂粉丝将朱茵版《射雕英雄传》中的经典扮相“黄蓉”的脸替换成杨幂,这段视频在网络上引起热议,以至于微博话题点击量飙升至1.1亿。有很多网友发表了惊喜的态度,表示毫无违和感,虽然视频制作者表示制作视频主要用于技术交流,并无营利行为,但也有网友提出此举可能侵犯肖像权。

左为朱茵的原版画面,右为网友制作的杨幂版本。
左为朱茵的原版画面,右为网友制作的杨幂版本。

除了中国粉丝,韩国也出现了类似的案例,有粉丝把Twice台湾籍成员周子瑜的样子,换到了热播韩剧《Start Up:我的新创时代》当中演员姜汉娜的角色上,由于该合成影片十分逼真,篡改过的影片上载网络后,更是让不少粉丝误以为自己的偶像真的参与该剧拍摄。

左为网友制作的周子瑜版本,右为原版画面,由姜汉娜饰演。
左为网友制作的周子瑜版本,右为原版画面,由姜汉娜饰演。

而这种换脸技术,就叫做“DeepFake”,是人工智能的一个分支,由人工智能中的deep learning(深度学习)和fake(伪造)两个词合成而来。

其实这项变脸技术并不是刚刚出现,早在2013年的《速度与激情 7》中就应用过。虽然演员保罗·沃克的意外逝世,但是剧组利用这种技术后,我们依然可以在电影里看到他的精彩表演。

d

但是,在当时这种电影制作技术耗时耗力,还要耗费巨量的金钱,导演组不但要为电影里的人物建模、捕捉动作,还要逐帧制作画面,几分钟的画面可能会花上几个月的时间和上百人来制作。

DeepFake的出现改变了这一切,可以说DeepFake是影视制作人脸交换技术的一个里程碑。

协助破案 让教学更有趣

科技的蓬勃发达,都是为了人类文明及便利的生活为出发点,DeepFake也不例外,它的正面影响可以分为下面3大类;

1. 教育层面:在教育方面,DeepFake让老师在授课过程中制作出历史人物的影像,播放出来直接与学生互动,藉由此种方法让课程更加生动,增加学生上课的意愿,让学生对课程内容印象更深刻。

2. 影视层面:美国知名电影公司好莱坞运用DeepFake技术,让已经逝世的电影明星重返大荧幕,除此之外,电影中的替身可以被模拟出来代替本尊,也能够模拟出许多临时演员,节省电影中加拍或补拍的成本。

3. 协助犯案调查层面:美国加州一名大学教授,透过仅仅几张模糊的犯罪车辆照片,利用自制的DeepFake技术,复制出数百万张的车牌照片进行训练,因而找出可能的车牌号码,让原本无解的案件露出一道曙光。

e

然而,正是因为人心的险恶,DeepFake已经成为不法分子的干案工具。即使DeepFake在马来西亚尚未被广泛地应用,在西方国家却已成为国际媒体频繁讨论的焦点。美国前总统奥巴马、脸书创办人马克·祖克柏等名人的DeepFake影片近年来层出不穷,俨然成了有心人士在网路资讯战上操弄风向的关键武器。

DeepFake软件的普及化,让用户无需专业技术也能运用自如,在Github等程式码平台上,开源的DeepFake技术大幅降低应用门槛,让人轻松下载就能使用的各式换脸App,要做出一个简单的DeepFake影片并非难事。也因此,社群媒体如Facebook在今年1月祭出强硬措施,下架DeepFake影片,而Twitter也在2月时跟进。

令人担心的是,从DeepFake衍生的问题,可不光只是假讯息。

“DeepFake色情”一般人更难防

一项新科技所带来的威胁,有可能会不断演变、扩及不同领域。DeepFake一词于2017年首次出现时,人们最担心的,是它在色情影片上的应用。

根据AI新创Deeptrace于去年的报告显示,截至目前,网路上仍有高达96%的DeepFake影片,是未经当事人许可下合成的色情影片。上传这些色情影片的论坛累计超过1.34亿次的浏览量,神力女超人盖尔·加朵(Gal Gadot)及黑寡妇史嘉蕾·乔韩森(Scarlett Johansson)等上百位国际女星都是受害者。

2017年12月,一段以“神奇女侠”扮演者盖尔·加朵为“主角”的色情短片在网络上开始流传,仔细看就会发现,盖尔·加朵的脸只是被“换”到了别人身上,视频的主角并不是盖尔·加朵本人,视频制作者利用了深度学习和人工智能制作成了这个视频。

g
这段视频出自国外Reddit论坛,作者正是一位叫“DeepFakes”的网友,除了“神奇女侠”盖尔·加朵,他的“作品”还有很多,艾玛·沃特森、麦茜·威廉姆斯、斯嘉丽·约翰逊均在其中,这些视频都是用AI技术辅助合成的。

f

明星或许还有名气作为最后一层防护,但对一般人而言就不同了。社会新闻中,情侣分手后用“报复性色情影片”(Revenge Porn)要胁的事件屡见不鲜,而当报复性色情影片遇上DeepFake,恐怕将唤起人们心中最深层的恐惧。

连声音也能模拟

2018年,一位印度的调查记者拉娜·艾雅伯(Rana Ayyub)在揭露了一则关于克什米尔女孩性侵事件的两天后,于Whatsapp上看到社群在疯传以她为主角的DeepFake色情影片。她的社群平台被不雅影片的截图给洗版,而她却不知道如何向别人说明,影片中的人并不是她。

加拿大起家的新媒体Vice就曾派旗下记者实际到网路上找人客制化DeepFake色情影片,结果只花了约130令吉就得到了成品,显示DeepFake的产制已长出了基础的商业模式。这就是DeepFake恐怖之处,只要找到门路,任何人都能用极高说服力,将你没有说过的话、没有做过的事给强压在你身上。

不仅如此,已有诈骗集团利用DeepFake技术干案,因为其技术中不仅能合成模样,连声音都能模拟,让犯案机率大大提高!

不法分子会利用DeepFake技术,合成“报复性色情影片”——纵使受害人根本没有拍过,这类的合成影片已经足以成为要胁。
不法分子会利用DeepFake技术,合成“报复性色情影片”——纵使受害人根本没有拍过,这类的合成影片已经足以成为要胁。

假资讯造成的纷乱,在世界各地都有了先例。DeepFake一词在2017年诞生后,今年是首次遭遇美国总统大选。为了防堵DeepFake恶意操弄,社群平台如Facebook也在2020年1月宣布,除了刻意用来嘲讽的影片以外,他们会下架所有DeepFake影片。

此外,Facebook也与其他科技大厂如微软、AWS(亚马逊网路服务)联手,发起DeepFake侦测挑战赛,投入100万美元总奖金来激励侦测技术研发,希望破解更多层出不穷的DeepFake手法。

然而,无论社群平台对抗操弄资讯者,或是资安公司对抗网路诈欺犯,两者最终都指向一场不断升级的AI军备竞赛。站在这个看不到尽头的竞赛起跑点,我们将要奔向的未来,或许正是一个“眼见不能为凭”的时代。

专家警告:网络银行用户要提高警惕

既然DeepFake是以AI作为武器,以其人之道还治其人之身,“AI攻防战”似乎是最主要的解套方式。

以查破社群平台假帐号起家的以色列新创Cyabra,近来就成功研发侦破DeepFake的AI技术,并以该技术在今年2月的美台科技挑战赛中获得亚军。Cyabra全球业务副总裁阿赛夫·丹比(Assaf Danby)表示,透过他们所开发的AI演算法揪出DeepFake影片,准确率可达97%。

Assaf Danby表示,Cyabra成员大多来自以色列国防军队中的网路资讯战部队,在协助公部门抵挡宣传战上面有多年的经验。
Assaf Danby表示,Cyabra成员大多来自以色列国防军队中的网路资讯战部队,在协助公部门抵挡宣传战上面有多年的经验。

他们是怎么做到的?他们研究影片的解析度及压缩率等数值,并拿来分析人物脸部表情及肢体动作是否自然。

好比说,戴上眼镜后人脸焦距的变化是否正确?嘴唇的动作与下巴及喉结肌肉的连动状况有无异状?“我们能够一帧一帧的检验影片的真伪。”丹比说。

为美国大选防堵假资讯

Cyabra今年的任务,本是与美国国务院合作,为2020年美国总统大选防堵假资讯。但自从新冠病毒(COVID-19)疫情爆发以来,查核疫情不实资讯就成了他们的主要目标。“3月底时我们就发现,有一个以国际药厂Roche(罗氏)为名的影片,声称他们做出了疫苗。”

从色情影片威胁、到各种议题的资讯操作,随着DeepFake技术日新月异,涉及的犯罪领域也不断扩大。丹比呼吁,下一波DeepFake攻击,可能将锁定网路银行的用户。“愈来愈多用户选择透过视讯电话来开户,而DeepFake影片也能伪造某人身分,在视讯电话中通过银行的人脸辨识系统审查。”

说到底,技术毕竟是中性的。对丹比来说,AI是世界正式踏入“人类世”的证据。“这项技术将继续改变人类的生活——无论是好是坏,”他说,“或许人类世所代表的,就是我们在好坏之间拉锯,与AI共舞的时代。”

在这些真假难辨的资讯中,唯有一件事情是肯定的,那便是人们对于“真相”的理解将重新被形塑。
【免责声明】
“爱生活iLifePost”网站欢迎读者/网民留言,创造友好交流空间;唯网民留言皆不代表本网站立场。本网站有权删除任何人身攻击、鼓吹种族宗教隔阂、诽谤造谣、网络霸凌等煽动性留言。