@ 2019.06.21 , 08:00

Adobe推出AI识别修图功能

作者:Stan Horaczek

自一个多世纪以前相机问世以来,人们一直在修照片,但还有一批人试图练就火眼金睛,找出修图的蛛丝马迹然后曝光出来。随着编辑工具的进步,判断是否修过图的方法已经落后 - 至少在执法和图像取证等领域之外是落后的。

Adobe家军火库里已经有了用AI识别是否修图的杀器了。最近Adobe公布了一项研究,与加州大学伯克利分校合作,使用自家Photoshop里液化滤镜中的人脸识别来探知照片是否被修过。虽然距离一下子就搞出图片被修过的证据的程度还很远,但这样的研究项目对我们而言还是很必要的,可以用在鉴别可能是Deepfakes的视频上。

主要针对的是什么样的修图呢?
这已经不是Adobe第一次搞AI图像验证了。Adobe已发布技术数据,这些技术专注于一般的图像编辑技术,例如将图像拼接在一起、从照片中删除某对象,或者将图像的一个区域复制并粘贴到另一个区域[修补、仿制图章等],你们都已经知道了。

然而这些技术通常来自人类编辑人员,他们可以看到原图和成品,但可能并不清楚内在程序。例如,将元素从一个地方复制并粘贴到另一个地方可能会破坏数码相机传感器产生的数字噪点模式,这也是判断是否修过图的依据。

然而,这项新研究概述了一种技术,旨在对依赖AI的图像编辑过程进行逆向工程。

脸部液化
Photoshop的液化工具已经迭代很久了。液化可以操作图像上的像素,推或拉,让修图变得更加容易,比如变换图中人物的体型、脸型。之前的版本有AI自动识别人脸,更方便地进行调整脸、鼻子、嘴、眼睛。

使用这个工具,既能妙手回春,也能倒转乾坤,但其实大家还是小心滴在修脸修身材,适度,让图片看起来不是那么假。

在其研究中,Adobe展示了成对的图像 - 一张修图后的照片,一张原图,给神经网络和人类对象进行测试。人类识别出修图的准确率是53%,但据报道,神经网络的准确度大约为99%。除此之外,AI有时还可以撤消编辑以使用原始扭曲效果引起的失真等线索组合来获得原始图像的近似值。

证据的重担
虽然这样的工具很有用,但在反修图达到修图的程度还有很长的路要走。来自加州大学伯克利分校的计算机科学教授Hany Farid最近告诉《华盛顿邮报》称,试图检测Deepfake视频的研究人员数量与生产Deepfake视频的人数之比超过100比1。

即使技术赶上,还有更多的变数要弄清楚,其中最重要的是让人们相信AI的判断,特别是当它评估的内容可能是政治性的或两极分化的时候。验证图像还存在一个古老的问题:证明照片或视频未经过数字修改可能会使其信息过于可信[过于真实]。摄影师或摄像师仍在积极选择要呈现的信息及其呈现方式,因此在没有任何数字操作的情况下,图像仍然很有可能误导观众。

目前没有办法尝试这些工具,所以你现在还不能自己尝试,但是随着Adobe和其他公司 - 以及军方 - 继续研究这种技术,期望听到更多关于该技术的新消息。此外,我们也期待看到更多被证实是伪造的图像和视频。

本文译自 popsci,由译者 HW 基于创作共用协议(BY-NC)发布。


支付宝打赏 [x]
您的大名: 打赏金额:

赞一个 (6)