知物由学 | 虚假色情泛滥,人工智能可以做些啥?
本文由 网易云 发布。
“知物由学”是网易云易盾打造的一个品牌栏目,词语出自汉·王充《论衡·实知》。人,能力有高下之分,学习才知道事物的道理,而后才有智慧,不去求问就不会知道。“知物由学”希望通过一篇篇技术干货、趋势解读、人物思考和沉淀给你带来收获的同时,也希望打开你的眼界,成就不一样的你。当然,如果你有不错的认知或分享,也欢迎通过邮件(zhangyong02@corp.netease.com)投稿。
本文作者:Louise Matsakis,《连线》杂志编辑,负责网络安全、互联网法律和网络文化,曾在VICE的科技网站主板和Mashable担任编辑。
Gfycat——一个动态图片托管平台,致力于让视频或动态图片的上传和分享更加快速便捷。
作为一个在线动态图片托管平台,公司成立的目的就是要改善21世纪人们对GIF的观看体验。GYF是“GIFFormatYoker”(GIF格式关联)的缩写,这一缩写很好地体现了公司成立的目的,即要把GIF和HTML5视频关联起来。
人脸识别和机器学习的使用已经越来越普遍了,互联网也开始利用这些技术来制作虚假的色情视频。正如Motherboard报道的那样,人们正在制作智能面部交换色情片,将名人的脸换到色情片的女演员上,例如伪造国外明星盖尔·加朵(GalGadot)与她同父异母的哥哥睡在一起的视频。当Reddit、Pornhub和其他社区都在为禁止了deepfakes的内容伤脑时,GIF-hosting公司的Gfycat找到了一个不错的解决方法。
Gfycat表示他们已经找到一种通过人工智能来识别虚假视频的方法。Gfycat已经开始利用这项技术来对其平台的GIF进行审核。这项新技术向人们展示了在未来如何尝试与虚假视频内容对抗。毫无争议的是,随着越来越多类似Snapchat的平台将视频内容引入新闻行业,与虚假视频内容的斗争会越来越激烈。
Gfycat至少拥有两亿活跃用户,它希望能提供一种比Reddit、 Pornhub和Discord更全面的方法来过滤deepfake。Mashable报道称Pornhub未能从其网站上删除一些deepfake视频,包括一些有数百万点击量的视频(这些视频后来在文章发布后被删除)。三月初,Reddit网站禁止了一些deepfake社区,但保留了一些相关的板块,如r/DeepFakesRequests 和r/deepfaux,直到WIRED在报道这个故事的过程中引起他们的注意。
这些努力不该被忽视,但同时,它们也显示了互联网平台的人工运营是有多么困难——特别是当电脑不需要人工,能发现自己的deepfake的时候。
人工智能开始战斗
Gfycat利用人工智能开发了两种工具,它们都以猫科动物命名:Angora项目和Maru项目。当用户将泰勒•斯威夫特(Taylor Swift)的低质量GIF上传到Gfycat时,Angora项目可以在网上搜索更高分辨率的版本以替换它。换句话说,它可以找到斯威夫特同样的演唱剪辑“"ShakeIt Off”,并将这个更好的版本上传。
现在让我们假设你没有标记你的剪辑为泰勒•斯威夫特,但这不是一个问题。据称Maru工程可以区分不同的人脸,并会自动用斯威夫特的名字标记GIF。这从Gfycat的角度来看是有意义的,它希望将每月上传到平台的数百万用户的素材编入索引。
业余爱好者创作的大多数deepfake都不完全可信。因为如果你仔细看,这些帧并不太匹配;在下面这段视频剪辑中(https://youtu.be/5hZOcmqWKzY ,PS:需FQ),唐纳德·特朗普(DonaldTrump)的脸并没有完全覆盖安格拉•默克尔(Angela Merkel)的脸。但是你的大脑做了一些处理,填补了技术无法将一个人的脸变成另一个人的脸的空白。
Maru项目远不如人脑宽容。当Gfycat的工程师通过它的人工智能工具运行deepfake时,它会注册类似于尼古拉斯凯奇(Nicolas Cage),但不足以发出一个肯定的匹配,因为人脸并不是在每一帧中都呈现得完美无缺。使用Maru是Gfycat发现deepfake的一种方法,当GIF仅部分像名人时,它可能就不会特别好使。
Maru项目可能无法单独阻止所有的deepfake,且随着它们变得更复杂,未来也会更加的麻烦。有时,一个deepfake的特征不是名人的脸,而是一个平民,甚至是创作者仅个人认识的人。为了对抗这种变化,Gfycat开发了一种类似于Angora项目的遮蔽技术。
如果Gfycat怀疑某个视频已经被修改以显示其他人的脸,比如Maru没有肯定地说这是泰勒•斯威夫特的,那么公司就可以“屏蔽”受害者的脸,然后搜索是否在其他地方存在身体和背景录像。例如,在特朗普(Trump)的身体上放置他人面孔的视频中,人工智能可以搜索互联网,并打开它借用的原始的国情咨文的视频录像。如果在新的GIF和源文件之间不匹配,人工智能可以断定视频已经被修改了。
Gfycat计划使用它的屏蔽技术来屏蔽更多的人脸,以检测不同类型的虚假内容,比如欺诈天气或科学视频。Gfycat一直非常依赖人工智能来分类、管理和调节内容。Gfycat首席执行官理查德·拉巴特(Richard Rabbat)在一份声明中说,“人工智能的创新步伐加快,有可能极大地改变我们的世界,我们将继续使我们的技术适应这些新的发展。”
不是万无一失
Gfycat的技术在至少在一个feedfake的工作场景中是行不通的:一个在其他地方不存在的脸和身体。例如,两个人在一起拍sex录像,然后换到别人的脸上。如果没有人参与其中,而且视频在其他地方没有,那么Maru或Angora就不可能知道内容是否被改变了。
目前看来,这是一个相当不可能的情况,因为制作一个deepfake需要访问一个视频和某人的照片。但也不难想象有这样的一个情况,一个前恋人会利用手机上的视频来拍摄受害者,而这些视频从未公开过。
即使是以色情明星或名人为特征的feedfake,有时候人工智能也不确定到底发生了什么,这就是为什么Gfycat雇佣人来帮忙的原因。该公司还使用其他元数据,如共享位置或上传者来确定剪辑是否是一个feedfake。
此外,并非所有的视频都是恶意的。正如电子前沿基金会(ElectronicforrentionFoundation)在一篇博客文章中指出的那样,上述默克尔/特朗普混搭(Merkel/Trump)之类的例子仅仅是政治评论或讽刺。还有其他合法的理由来使用这种技术,比如匿名化需要身份保护的人,或者创建经双方同意改变的色情作品。
尽管如此,还是很容易看出为什么这么多人会觉得deepfake令人苦恼。它们代表着一个未来的开端,即不可能判断一个视频是真实的还是假的,这可能对宣传及更多的内容产生广泛的影响。俄罗斯在2016年总统选举期间用假机器人淹没了Twitter;在2020年的选举中,可能会对候选人自己的造假视频做同样的事情。
漫长的战斗
虽然Gfycat提供了一种潜在的解决方案,但它可能只是一个时间问题,直到deepfake的创造者学会如何规避它的安全保障。随之而来的斗争可能需要数年时间才能完成。
正如达特茅斯学院(Dartmouth College)的计算机科学教授、专门从事数字取证、图像分析和人类感知的HanyFarid说的:“我们几十年的时间里,你可以在色情网站或Reddit上找到你可以释放的法医技术,并最终从一个虚假的信息中分辨出真实的信息。”如果你真想愚弄这个系统,你就会开始建立起一套破解法医系统的方法。
相关阅读:
知物由学第七期 | 未来安全隐患:AI的软肋——故意欺骗神经网络
如果你受困于色情、渉政等虚假信息,那么你可以尝试用下易盾的反垃圾业务,可点击此处一键接入易盾内容安全解决方案。
了解 网易云 :
网易云官网:https://www.163yun.com/
新用户大礼包:https://www.163yun.com/gift
网易云社区:https://sq.163yun.com/