@ 2018.02.22 , 11:00

Deepfakes 再次以假乱真,这次中招的是川普

本周,一位油管 UP 主用 Deepfakes 制作了一段以假乱真的川普视频。

此前,我们也介绍过这个神奇的算法,不过主要是它在□□片方面的建树。不过,现在主流平台如 Reddit,Imgur 和 Pornhub 已经将其禁止,所以那些 AI 爱好者们只得换个应用方向。

Deepfakes 再次以假乱真,这次中招的是川普
credit:123RF

这事,好也不好。

我第一段举得例子,其原视频是 Alec Baldwin 周末晚间秀一段模仿川普的视频,但是一位油管的 UP 主 “ derpfakes ” 训练换脸 AI 将 Alec Baldwin 的脸换成了川普的脸。如果你不是该节目的忠实观众,你可能根本看不出破绽。

视频点这里

这个 AI 几周前就已经出现,而且造成了巨大的轰动。它能够达成像素级的人脸识别,将你最爱的女明星放到一个让人无比尴尬的场景里,而且现在,他再一次展现出来了以假乱真颠倒黑白的潜力。

视频的里的川普,搭配上 Baldwin 的演讲和夸张的肢体动作,简直活灵活现,如果非要揪出一点点缺陷,只能说这并不是真正的川普在讲,在表演。

你觉得能把视频做到如此程度需要花多长时间呢?

用户们正在努力尝试,下面这段视频,就是另一位油管 UP 主,将2004年的电影《帝国的毁灭》中,Bruno Ganz 扮演的希特勒的脸,换到了现任的阿根廷总统Mauricio Macri 脸上。
视频点这里

还有人将加泰罗尼亚议员 Inés Arrimadas 的脸换到了一部由 Twisty’s 出品的□□片里。

后面提到的两个例子都是几周前出现的,视频里还能看出一点蛛丝马迹。

现在,虚假视频愈来愈能以假乱真,而且这项技术显然也能对那些知名度不高的演员和公众人物使用。不知道在未来一到两年内,这项技术会不会发展到常人无法辨认的程度。

到那个时候,视频证据可能就需要怀疑了,或者说变得根本不可信。简而言之,或许你能看到的已经不能代表真相了,我们的未来看起来有点糟糕啊。

本文译自 thenextweb,由 Dkphhh 编辑发布。

支付宝打赏 [x]
您的大名: 打赏金额:
赞一个 (8)