据说这是世界上第一次由人工智能产生的合成声音造成的欺诈损害。遭受欺诈的公司遭受的损失达2.5亿韩元。
据受影响公司的保险公司Yuler Hermis称,该公司的经理下午接到了老板的电话。老板的声音告诉我将钱转至匈牙利的银行帐户,因为我不得不为延误付款支付额外费用。另外,他还通过电话指示我通过电子邮件发送对帐单。这实际上是模仿老板声音的合成声音,但是据说合成声音不仅具有相同的音调,而且具有音调,单词分类甚至德语方言。
第一次汇款后,同一位老板的声音再次响起。经理对此表示怀疑,并再次致电老板。根据尤勒·赫米斯(Yuler Hermis)的说法,该经理说,即使在与他的真实老板交谈时,复合声音仍继续与他交谈。
近年来,像真实人物一样合成视频或音频的AI技术得到了高度发展。在2017年,将著名女演员的面孔与成人视频相结合成为一个热门话题。 9月,在中国出现了ZAO(一款可轻松创建带有单张脸照片的假冒视频)的应用,并广受欢迎。当然,人们也指出了关切。
另外,有些人指出了可能无限期地创建虚假新闻图像,传播虚假新闻并使其难以区分真相和谎言的危险。另一个问题是,如果照片或视频在Internet上传播,即使在技术上可以检测到假新闻,也很难阻止其自身传播。相关信息可以在这里找到。