付费会员专享中美贸易战专题
登录×
電子邮件/用户名
密码
记住我

为您推荐

造假

“声情并茂”的“深度造假”

用人工智能模仿语音和形象,编造出另类现实,让人们貌似说出或做出他们从未说过或做过的事情。这种新型造假的威胁已不容忽视。

最近,有人给我看几十张唐纳德•特朗普(Donald Trump)的小图片,有些是真的,其余的则是数码合成的。我发现很难区分它们。在被要求从中挑出三张假的之后,我只选对了一张。

这个试验是为了说明“深度造假”这一扑面而来的威胁,用人工智能模仿语音和形象,创造出另类现实,让人们貌似说出或做出他们从未说过或做过的事情。

深度造假最简单的形式就是,通过给计算机指令,并提供给它一个人的形象和声音,教它模仿那个人说话(或别的事情)。目前已经有个这方面的app:FakeApp(以及关于如何使用它的视频教程),还有一个地下数字社区,其成员忙于将名人的脸叠加到色情视频中的演员身上。

目前的深度造假制作还不完善,尚能被检测出来,但该领域的技术进步很快。在两三年内,我们可能会看到动态的图像及讲话,而没人能分辨出真假。

在一项引人入胜的研究中,华盛顿大学的研究人员用巴拉克•奥巴马(Barack Obama)的音频和视频资料,来生成他的视频。他们模拟这位美国前总统的嘴形,创造出一个“合成的奥巴马”。在斯坦福大学(Stanford University),研究人员掌握了如何操纵扭头、注视和眨眼动作,用计算机制作出真假难辨的的视频。

这项技术有望在影视剪辑与制作以及虚拟现实方面创造奇迹。在不远的将来,配音可能会迎来变革:肥皂剧中的墨西哥演员看起来就像是在说英语(或汉语、俄语),看起来更真实。在商业和国际事务中,这项技术可以通过翻译发言、并同时改变面部和嘴巴的动作来打破视频会议上的语言障碍,这样每个人似乎都在说同一种语言。

但也要考虑到个人或国家行为主体蓄意散播虚假信息的潜在风险。深度造假可以“声情并茂地”捏造出一个政客的言论,从而影响选举。视频可被用来捏造出一个威胁,引发政治危机或安全事件。“如果说,过去几年有什么可供借鉴的教训,那就是虚假视频将越来越多地被用于推进政治议程。”Alphabet旗下智库Jigsaw的研发总监亚斯明•格林(Yasmin Green)说。“以往造假的技术含量并不高,因此很容易被识破,但相关技术日新月异……对于它构成的威胁,我们的认识赶不上其发展速度。”

已有证据证明了这一问题。去年5月,卡塔尔通讯社及其社交媒体账户遭到黑客攻击,据称由埃米尔发表的声明引发一场外交争端。卡塔尔的邻国利用这些言论为它们对这个酋长国经济实行的禁运提供理由。“卡塔尔事件显示出人们对利用虚假消息推进政治议程的兴趣。”格林说。“试想要是他们掌握了深度造假,结果会怎样。”

最近,在摩尔多瓦地方选举前夕,半岛电视台(Al Jazeera)的一段新闻视频被发布在其Facebook页面上,并配有罗马尼亚文字幕。该视频称,一位市长候选人提出将一个岛屿租给阿拉伯联合酋长国。这是条假视频,但却在网上迅速传播。

与深度造假可能造成的危害相比,当下假新闻造成的损害微不足道。密歇根大学(University of Michigan)社交媒体责任中心(Center for Social Media Responsibility)首席技术专家艾维•奥瓦迪亚(Aviv Ovadya)担心,深度造假不仅会使人们相信伪事实,而且还会削弱人们对事实的信任。“这对我们社会的方方面面都有影响,从法治到新闻工作的方式。”他说。

情报机构与国防部门都很清楚计算机生成视频的进展(而且可能本身就在该领域深入研究)。与此同时,该领域一些领先的研究人员在研究检测解决方案,科技公司和政府也是如此。

我希望他们在解决这个问题上能比发现和剔除假新闻快得多。

译者/偲言

版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。

读者评论

FT中文网欢迎读者发表评论,部分评论会被选进《读者有话说》栏目。我们保留编辑与出版的权利。
用户名
密码
设置字号×
最小
较小
默认
较大
最大
分享×
杏彩娱乐歡迎您的光臨返回首頁杏彩娱乐