科技食谱

深刻的假… AI将带来的不信任的时代

随着人工智能技术的改进,出现了问去年,我使用人工智能技术来学习着名女演员的面孔,并收集假成人和现有的成人物品。这是一部假影片,由Galgadot主演的电影明星神奇女侠出来了。事实是它是使用张量流等机器学习工具创建的。 FakeApp,一款可让任何人轻松创建假成人内容的应用程序,因为该技术可以快速传播。任何人都可以创建这样一个没有编程或技术背景的假视频。

当然,在图像与这种人工智能相结合的情况下,即使没有专业知识,任何人都可以拥有一个大型SFX公司或垄断的CG工作或数字编辑。一方面,它提出了道德问题,但另一方面,如果算法发展,它也预测了图像制作领域的创新可能性。

那不是全部。除视频外,人工智能开发也在进行中,使人们可以通过电话与人交谈。这是Google Duplex,在5月举行的Google I / O 2018期间宣布。谷歌开发了WaveNet,一种通过深度学习产生人工语音的神经网络,并在Google Assist上构建了它。它能够以相当精确的方式产生接近人性的自然声音,但仍然具有“计算机化”的音调和音调。

Google Duplex是一款AI,可让您通过手机进行自然对话。例如预订美容院或餐厅,可以进行。当然,通过限制学习数据和使用目的,可以像人一样进行通信。它是一种交互式AI,不能用于诸如聊天之类的一般会话,并且专门用于特定目的。

Google Duplex首先传达电话的意图,以便对方(当然还有人)可以就同一主题进行讨论。事实上,人类之间的自然对话比看起来更复杂。重复故事或跳过对方可能知道的故事。有很多方法可以增加AI位置的错误率,例如呼叫期间的噪音。 Google Duplex不仅可识别对方的语音,还可根据对话历史记录,对话目的以及与对方的时间等信息生成最佳回复。分析上下文以估计其含义并继续对话。

Google Duplex基本上是有意义的,因为您可以在没有人为干预的情况下自主地进行交谈和工作。它不仅可以做日程安排等事情,还可以帮助有听力障碍的人或不懂当地语言的人。

无论如何,这种人工智能技术现在可以创建虚假内容,如视频或语音。判断哪些图像或声音是真实的变得越来越困难。实际上,有一种技术可以将不同的图像表达转换为美国前总统巴拉克奥巴马的形象。互联网媒体Buzzfeed于4月份制作。

从那时起,出现了更复杂的图像编辑技术。由斯坦福大学的研究人员开发的深度视频技术是一种允许深度运行算法编辑现有视频中的人的技术。允许将视频中的角色或人物转移给其他人。

这种技术不仅可以移植面部表情,还可以移植头发位置,运动,眼球运动甚至眨眼。当然,我们需要一个视频,显示将扮演来源的演员。不仅是面部表情,还有面部动作和动作。如果你只有语音(语音也像上面介绍的Google Duplex一样发展),你就可以操纵它,好像它就是你所说的。如果您只有语音文件,则可以匹配您的嘴巴动作。到目前为止,视频编辑一直是调整人物运动背景的过程,但深度视频可以优化背景。细节和动作似乎是真实的,因此很难判断哪一个是假的。

正如我之前所说,如果您将DeepVideo等技术与语音合成系统结合使用,您可以使用它来诽谤某人或制作虚假新闻。因此,还有一些声音需要加水印才能判断它是真实的还是用AI技术再次伪造。事实上,去年有一些像假新闻挑战这样的项目来消除假新闻。使用机器学习,自然语言处理和人工智能技术,它试图寻找识别新闻文章中隐藏的操作和错误信息的可能性。

德克萨斯大学的罗伯特切斯尼教授和马里兰大学的Daniel Citron在新的Deep Fake技术上宣布了一项深度假货(隐私,民主和国家安全的迫在眉睫的挑战)。

深假是深度学习和假冒的结合。这是一个创造性的词,意味着使用深度学习技术制作虚假信息和虚假新闻。在Deepfake的论文中,使用人工智能的Deepfake技术将继续发展,虚假新闻和虚假信息传播的速度也将随之增加。现在仍然存在问题的假新闻的扩散预计会加速。

在这里,Deeppeak技术可以在世界各地传播假新闻,使其易于相信(速记)视频或语音,并使用在SNS中传播的手段。它可能对选举,安全和新闻等各方面造成巨大破坏。还提到这种虚假信息比“发生这种情况”的说法更危险,因为它采取消极形式,例如“没有这样的事实”或“(特定的)呈现是错误的”。也可以通过视频或语音来操纵与实际公告相矛盾的内容,以使某个人成为骗子。

普通人判断他们是否仍然是假新闻并不容易。此外,如果有证据(?)在视频或语音之类的稻田面前可以看到和听到,那就更是如此。新闻可信度很重要,有效的民主可以发挥作用。然而,有人指出,摇摆对这种信息的信心可能会在建立专制政权方面造成差距。深假技术基本上是一种侵略性的目的。如前所述,您可能需要指导水印或其他任何内容,但您可能需要注意您正在仔细阅读的内容。