凯旋门棋牌游戏

短视频造假术,你值得拥有

更精彩,敬请关注硅谷洞察官方网站(

从古代到现在,“欺骗”和“伪造”这两个词可以说贯穿于人类的历史。在现代社会,面对互联网上似是而非的信息,“有真相的图景”已经开始成为网民的号召力。

可以看出,大多数人都同意一点。只有当你有可靠的证据才能证明你说的是实话。把这些证据的说服力整齐排列,大概是文字>照片>音频>视频。

然而,随着PS的兴起,“骗局”逐渐失去了人们的信任,音频和视频被认为是更可靠的证据来源,但是在人工智能进入短视频制作后情况正在发生变化。将来,人们可能需要处理难以区分的更多音频和视频。

人工智能的视频欺诈高级方法

在普通人看来,短视频欺诈的方式只不过是“脱离背景”的片段。但是,AI并不那么简单。在短片“伪造”中,它不仅是假的,而且也是无中生有的。一般来说,AI可以通过三种方式伪造短片:

1.初级阶段:转移花卉和木材。

在短视频“伪造”中,最重要的不是图像的拼接,而是音频的连续性。想一想,即使你一起编辑奥巴马和特朗普的视频,并想告诉大家他们“在同一个舞台上唱歌”,没有他们演讲的声音,效果可能等于N的叠加仍然相片。

人工智能正试图综合以前人们在实践中从未说过的话。研究人员使用奥巴马的语音视频来训练人工智能学习系统,让系统的神经网络学习如何将各种语音特征与相应的嘴形相关联,在3D姿势匹配的帮助下生成CGI唇部动作和CGI。嘴唇与奥巴马的视频整合在一起。换句话说,他们可以使用相关的音轨来伪造难以辨别的视频。

使用AI系统,用户可以随意编辑人类语音,Adobe已经说过它可以用来调整视频中的发音和对话,就像Photoshop编辑图片一样。我们现在可以创建政治家,名人或演讲者的视频剪辑,无论内容如何。

2.中级阶段:改变面貌

在此阶段,AI不是合成的,而是编辑视频中的内容。通过面部检测和面部特征识别,面部关键点的实时跟踪允许人们在动态视频中修改他们的面部。

该技术是称为面部捕捉的运动捕捉技术的一个分支。这些脸上的黄斑是面部表情变化的关键点。通过面部跟踪,计算机只需要这些信息来合成表达式。

最近,Microvision发布了Android 4.4版本,该版本引入了实时美容和面部特征等新功能,包括之前在iOS版本上推出的实时长腿,声控魔术功能,以及更新Android系统。

视频中的化妆是儿科,AI可以在视频中改变你的面貌。在电影《星球大战外传:侠盗一号》中,技术人员通过捕捉现代演员Guy Henry的表情来合成另一个演员Peter Cushing,再次出现在大屏幕上。

3.高级阶段:没有中学生

合成声音仍然可以理解,你能相信合成动作吗?最近,在麻省理工学院(麻省理工学院)论文“看不见的姿势中的人类合成图像”中,研究人员提出了一种模块化生成神经网络,使用从人体运动视频中提取的成对图像和姿势进行训练。它可以为从未做过的人合成一个新的姿势。此外,该模型可以生成连续视频而无需经过深思熟虑的培训。

换句话说,通过单张照片,AI可以自由地操纵照片中的人物,使角色做出一系列动作,并且视频的合成非常自然。

(图为测验合成技术的网球视频。)

这当然只是新技术的冰山一角。很难全面概述现代人工智能视频处理技术,但我们总能找到一些有趣的应用。例如:从2D图像创建3D面部模型;改变视频中的光源和阴影;让特朗普在总统选举中秃顶直播,等等。

伪造和伪造技术总是以交互方式提升

我不得不说AI确实具有强大的视频欺诈能力。但我们也逐渐意识到视频欺诈的危险性。自由放置在互联网上的视频和声音要求我们认真辨别。如果非法元素使用这种技术来欺骗信息,我们并不昂贵,但我们承担不起损失。

特别是在新闻业,一旦人们知道假视频和音频正在传播,即使他们看到真实的视频,他们也会开始怀疑。因此,如果AI允许我们像处理图像一样轻松处理音频和视频内容,它实际上会在一定程度上削弱媒体的可信度。

路高一英尺,魔法高度为一英尺。伪造和伪造技术总是互动地提升。这是一场“军备竞赛”。人工智能使越来越多的人能够伪造,但研究人员不断开发更复杂的技术来增强音频,图片和视频的识别能力。通过增加欺诈的难度,非法分子欺诈的成本和技能要求越来越高。

现在,识别AI的伪造和处理并不困难。模糊处理是最常用的方法之一。低分辨率会让它“看起来很假。”

除了图片的质量,还有框架的筛选。在短视频中,人眼难以识别图像中的微小变化。在50%的病例中,人类可以被正确区分,并且大多数是随机猜测。当AI通过大量深度学习时,卷积神经网络可以正确区分视频图像中的修改和未修改图像,从87%到98%。

德国慕尼黑技术大学的研究人员还开发了一种名为“XceptionNet”的算法,可快速检测互联网上发布的虚假视频,此外,还可用于识别互联网上的误导性视频。这种人工智能算法主要集成到浏览器或社交媒体插件中,并在后台运行。如果它识别出被操纵的图像或视频,它将向用户发送警告消息,并向参与视频的人员披露他们是“伪造的”。 “”。

记忆而不是记忆更好

仔细想想,“伪造”似乎总会让人们产生不良联想,尤其是虚假的多媒体,但看起来很可怕。然而,技术无罪是一种古老的说法,那些有罪的人是有恶意的人。

更改AI伪造的用户数量更有用吗?有人说人们会经历三次死亡:第一次是身体停工造成的身体死亡;第二个是代表你的社会地位消失的葬礼;第三个是当世界上没有人再次记得你的时候。死亡的真正含义。

当你的亲人即将离开这个世界时,你有没有想过用技术把你的亲人变成一个多愁善感的笑容,并伴随另一种形式?也许这也会使亲人的“第三次死亡”变慢。

目前,有些人通过语音合成技术录制了自己的声音,并将自己的声音加载到智能扬声器中,以确保亲人即使在死后也能与自己互动。

如果你能通过一张照片得到亲人的照片,那么人们无法理解相思的痛苦。

AI假短视频应该是一个不断增加价值的过程,而不是被小人使用。一方面,人工智能可以建立一个丰富的数据库,依靠深度学习来做出更多的应用场景选择,这样那些在视频中“复活”的人就可以出现在不同的场景中,以满足人们更多的情感需求。另一方面,伪造变成存储器,收集人的图像和音频材料,并个性化用户以实现一对一的存储器归属。

更精彩,敬请关注硅谷洞察官方网站(