微比恩 > 信息聚合 > 警惕语音克隆诈骗,AI 已可以做到 5s 内克隆人声并生成任意内容

警惕语音克隆诈骗,AI 已可以做到 5s 内克隆人声并生成任意内容

2021-10-30 18:52:41来源: IT之家

一位银行经理接到公司董事打来的电话:公司安排了一项收购,要从账户里转出巨额资金,希望他批准这道流程,还附上了相关律师的电子邮件,以确认金额和转入账户。这次交易合法合规,流程也并无问题,况且还是老板亲自打的电话,他就按要求将 3500 万美元如数转出。晴天霹雳的背后是 AI 语音转换直到转完账之后,这位迪拜高管也万万没有想到,电话那头熟悉的老板的声音,其实是用语音克隆技术合成的。这桩诈骗案由福布斯报道,但受害者的名字和其他更多细节没有透露。据估计,这项精密的计划至少涉及 17 人,自去年年初,骗取的资金已经发往全球各地的银行账户。如果不是亲耳听到,应该是不会相信会有这么神奇的事。不过不得不说,能做到这种程度已经能够以假乱真了。如果有更长的时间和更多的素材去训练,相似程度应该还能更上一层楼。更可怕的是,如此逼真的转换,操作起来也不难。例如在 Github 上大火的 AI 拟声项目 Real-Time-Voice-Cloning,能够

关注公众号
标签: 语音 AI