首页   

Deepfakes的最大威胁并不是Deepfakes本身

AI前线  · AI  · 4 年前



策划 | 刘燕
作者 | Karen Hao
翻译 | 夏夜
编辑 | Linda
AI 前线导读:Deepfakes 技术在爆火的同时也引发了人们的担忧:这种看起来像真的一样的虚假视频媒体很可能会引发政治风险。但专注于检测这一欺骗行为的网络安全公司 Deeptrace Labs 在其最新的报告中发现:在目前已知的案例中,Deepfakes 并没有实际用于虚假信息宣传活动,但更大的负面影响是,更多人们知道了 Deepfakes 可以这样使用。

科技让假东西看起来像真的,这个做起来非常容易。但更令人担忧地是,尽管制造 Deepfakes 的障碍可能正在迅速减少,但要对某物的真实性提出质疑,根本不需要任何技术。

更多优质内容请关注微信公众号“AI 前线”(ID:ai-front)

那是 2018 年底,加蓬人民已经好几个月没有在公共场合见到他们的总统 Ali Bongo 了。有些人开始怀疑他是病了,甚至是死了,而政府却在掩盖真相。为了阻止猜测,政府宣布 Bongo 患了中风,但身体状况良好。不久之后,政府发布了一段他按照惯例发表新年致辞的视频。

然而,这段视频非但没有缓和紧张局势,反而起到了相反的作用。许多人认为 Bongo 在视频中看向了别处,立即怀疑这是 Deepfakes 伪造的——一个在人工智能的帮助下伪造或篡改的视频媒体材料。这种想法助长了他们认为政府有所隐瞒的疑虑。一周后,军方发动了一次不成功的政变,称这段视频是政变的动机之一。

随后的法庭分析从未发现视频中有任何改动或篡改。但这并不重要。仅仅是关于 Deepfakes 的想法就足以加速本已岌岌可危局势的瓦解。

在 2020 年美国总统大选之前,Deepfakes 日益令人信服的技术却让人们担心,这种虚假视频媒体可能会影响政治观点。但专注于检测这一欺骗行为的网络安全公司 Deeptrace Labs 的一份新报告(https://deeptracelabs.com/about/)发现,在已知的案例中,Deepfakes 并没有实际用于虚假信息宣传活动。但更大的负面影响是,人们知道了 Deepfakes 可以这样使用。

“虚假视频媒体看起来就像真的一样,从这个角度来看,Deepfakes 确实对政治构成了风险,但目前更切实的威胁是,Deepfakes 能够让真实的东西看起来是假的。”该报告的作者之一 Henry Ajder 表示:“关于 Deepfakes 对政治影响的炒作和相当耸人听闻的报道,盖过了 Deepfakes 产生了影响的真实案例。”

文件不再是证据

自 Deepfakes 事件出现以来,人权活动人士和虚假信息专家对这些相互独立但又相互交织的威胁发出了警告。过去两年,美国科技公司和政策制定者几乎完全专注于 Ajder 提到的第一个问题:科技让假东西看起来像真的,这个做起来非常容易。但专家们更担心的是后者:尽管制造 Deepfakes 的障碍可能正在迅速减少,但要对某物的真实性提出质疑,根本不需要任何技术。

“从一开始,这就是我对这个领域最大的担忧,”Aviv Ovadya 说(一个虚假信息专家,现在负责非营利性的 Thoughtful Technology 项目)。

“它为当权者提供了另一种武器:任何失去权力的人试图揭露腐败时,他们都可以说‘这是彻头彻尾的谎言。”——Sam Gregory

破坏对媒体的信任可能产生深远的影响,特别是在脆弱的政治环境中。Sam Gregory 是帮助人们记录侵犯人权行为的非营利组织“目击者”(Witness) 的项目主管,他举了一个例子:巴西曾有警察暴力的历史,公民和活动人士现在担心,他们拍摄的任何有关警察杀害平民的视频,都不能成为调查的充分依据了。Gregory 说,他在世界各地举办的研讨会上,这种对真凭实据可能被视为伪造的担忧已成为一个反复出现的主题。

“这是‘假新闻’说法的演变“,他说,“它为当权者提供了另一种武器:任何失去权力的人试图揭露腐败时,试图揭露滥用人权的行为时,他们都可以说‘这是彻头彻尾的谎言’。”

证明真实的是真实的,假的是假的

解决这些问题需要了解这两种威胁。Ovadya 说:“站在高层次上讲,你要尽可能简单地表明,真实的东西是真实的,假的东西是假的。”

近几个月来,许多研究小组及 Facebook 和谷歌等科技公司,都把重点放在了揭露假货的工具上,比如用于训练检测算法的数据库,以及可以嵌入数码照片文件的水印(水印用于显示照片是否被篡改)。几家初创公司也在研究如何通过消费者应用程序建立信任,当照片和视频被拍摄时,这些应用程序会对照片和视频进行核实,这样是为了构建日后在传播版本内容时进行比较的基础。Gregory 说,科技巨头应该将这两种检查直接整合到他们的平台上,并使之广泛可用。

但是,科技公司也需要雇佣人工内容审核员,媒体机构也需要培训记者和事实核查人员,让他们在检测和核实方面也能做到鉴别真伪。实地报道可以确认视频是否反映了现实,并增加一些重要的细微差别。信息研究专家 Britt Paris 表示:“技术模型无法在跨文化背景下解释伪造视频的内容,也无法想象出内容如何能进一步重新语境化“。Paris 最近发表了一篇关于 Deepfakes 的报告。

作为一个例子,Paris 提到了 Nancy Pelosi 和 Jim Acosta 的改版视频,这一视频得到广泛传播。两者都是所谓的“cheapfakes”(廉价假货),而不是 Deepfakess——它们被篡改了用来误导观众。Paris 说:“用技术手段捕捉 Deepfakes 是不可能的。”相反,记者必须揭穿他们——这意味着人们必须信任记者。

“(虚假信息的行动者)真正想要的不是让你质疑更多,而是让你质疑一切。”——Aviv Ovadya

最后,所有的专家都同意公众需要更多的媒体素养。Ovadya 说:“证明真实的东西是真实的,和让公众相信真实的东西是真实的,这两者是有区别的。”他说,人们需要意识到,篡改内容和质疑内容的真实性都是可以用来故意制造混淆的手段。

不过,Gregory 警告说,不要给新闻消费者带来太大的负担。研究人员、平台和记者才是应该尽最大努力的人,他们需要在新闻传播到公众之前,帮助搞清楚什么是真实的、什么是虚假的。

Ovadya 说,最终的目标不是灌输全面的怀疑论,而是建立“社会化、教育性的和免疫性的基础设施”,以及 Deepfakes 所造成的影响。“我们应该尽量尝试避免什么?”他问道。“质疑证据是有价值的。但(虚假信息的行动者)真正想要的不是让你质疑更多,而是让你质疑一切。”

他补充道:“这与我们想要追寻的恰恰相反。”

原文链接:

https://www.technologyreview.com/s/614526/the-biggest-threat-of-Deepfakess-isnt-the-Deepfakess-themselves/  


你也「在看」吗?👇

推荐文章
华人生活网  ·  中国:如疫情严重,将协助国外中国公民回国  ·  4 年前  
谷歌开发者  ·  和 Twitter 开发者们一起学习通知管理技巧  ·  5 年前  
© 2022 51好读
删除内容请联系邮箱 2879853325@qq.com