人生倒计时
- 今日已经过去小时
- 这周已经过去天
- 本月已经过去天
- 今年已经过去个月
据说前段时间利用ai声音诈骗,加拿大发生了一起非常离奇的诈骗案。
一天,一对老夫妇突然接到儿子珀金的电话。
儿子打电话向他们求助。 他说他出了车祸,杀死了一名外交官,即将入狱。
(原理图,示意图)
夫妻俩听说儿子出事了,悲痛欲绝。 这时,珀金的律师又给他们打来电话,称为了打官司,他们急需21000加元的律师费。
夫妻俩没多想,赶紧给儿子盖了21000加元,并按要求将现金兑换成比特币,转入指定账户。
转完钱,夫妻俩心里稍稍松了口气,但冷静下来之后,又想起了之前儿子打来的电话,就觉得不对劲,因为电话里儿子的声音听起来有些怪异。
那天晚上,珀金给他的父母打了电话。 父母一问才知道,儿子白天从来没有给他们打电话,也没有发生需要打官司的车祸。 这对夫妇终于意识到他们被骗了。
(原理图,示意图)
他们迅速向加拿大警方报案,但他们的儿子珀金表示,付款时没有任何安全措施,钱不见了,也没有办法追回。
在得知父母被骗后,珀金一直有一个疑问——他想不通冒充自己的电话到底是怎么回事。 据说那声音和他很像。
据警方初步调查,诈骗者利用AI技术模仿珀金的声音给其父母打电话,以此对其进行诈骗。
珀金不确定骗子是如何找到他的声音样本的,但据推测他在 YouTube 上发布了与雪地摩托相关的视频,骗子可能从视频中提取了他的声音样本。
像珀金的父母被骗子以“冒名顶替”的方式诈骗的情况,在世界各国都呈上升趋势。
今年2月,美国联邦贸易委员会发布的一份调查报告指出,2022年美国将因舞弊损失88亿美元。 其中,最常见的诈骗手段是“冒名顶替”,这与珀金父母的情况类似。
人工智能技术的发展为此类犯罪活动提供了便利。 从几年前开始,利用AI合成语音的诈骗案件就不断出现,而一个非常典型的案例发生在2019年。
一家英国能源公司的CEO接到“老板”——德国母公司CEO的电话,要求他立即转账22万欧元到一家匈牙利供应商的银行账户上,他乖乖地照办了起来。
但在调动过程中,CEO却发现了异样。 “老大”一共喊了他三遍。 第一次让他转账,第二次告诉他钱已经报销了,第三次又让他再付一笔。 CEO发现所谓的“报销”还没有完成,原来是德国的“老板”用奥地利号码给他打了电话。
CEO起了疑心后,没有支付第二笔款项并报警,但他已经转出的第一笔款项已经从那个匈牙利银行账户转到了另一个墨西哥银行账户,然后又转到了其他地方,已经早已无法挽回。
民警经侦查发现,给CEO打电话的“老板”根本不是老板本人,而是利用AI技术合成老板声音的骗子。 被骗的CEO说,电话里的“老板”一口德国口音,语气独特,非常真实。
以前的AI技术都被骗子利用了,这就足以让他们作弊了。 近期,GPT-4在各国掀起了一股热潮。 如果有人恶意使用更先进的人工智能技术,后果不堪设想。
这种棘手的情况引起了一些开发AI语音技术的公司的注意。
例如,AI语音模仿合成研发公司ElevenLabs发现,在匿名论坛网站4chan上,有网友利用其AI语音合成器VoiceLab合成名人的声音,发表种族歧视等不当言论。
今年1月,ElevenLabs在其官方推特上发布了多篇帖子,提出了解决方案。
他们表示利用ai声音诈骗,为了对付那些将 AI 语音合成器 VoiceLab 用于不良目的的人,他们开发了一种工具,人们可以使用该工具来验证音频是使用他们公司的 AI 技术合成的。
而且他们发现绝大多数骗子都会匿名使用VoiceLab,所以VoiceLab以后只能是收费使用了。 虽然支付不一定能防止欺诈,但会迫使他们留下支付账户信息,起到震慑作用。 骗子要三思。
美国联邦贸易委员会还成立了新技术办公室,负责调查各家公司开发的人工智能技术的使用情况,以及公司是否试图降低人工智能技术被恶意使用的风险。
美国联邦贸易委员会发言人朱莉安娜·格伦瓦尔德对媒体表示,他们发现社交媒体上类似的骗局正在以惊人的速度增加。 “我们还担心 deepfakes 和其他基于人工智能的合成内容,它们越来越容易创建和分发,并可用于诈骗。”
(Deepfake 技术是一种使用基于 AI 的人体图像合成技术来合成目标图像或视频的方法。)
“生成看起来真实的视频、照片、音频和文本的人工智能工具将推动这一趋势。” “这让骗子更容易作案,也更容易、更快地实施诈骗。”
AI技术本身没有问题,但一旦被别有用心的人利用,带来的麻烦就防不胜防了……