AI深度伪造逼真模仿币安CZ声音
  • Home
  • 人工智能
  • Deepfake 人工智能以令人不安的方式模仿 Binance 的 CZ
Hamza Ahmed 资料图片 Hamza Ahmed
4 min read

Deepfake 人工智能以令人不安的方式模仿 Binance 的 CZ

Binance 前首席执行官 CZ 无法识别一段用自己声音录制的深度伪造视频。人工智能复制人脸和声音的准确性非常危险。

前 Binance 首席执行官赵长鹏(Changpeng "CZ" Zhao)讲述了一段令人震惊的经历:一段视频借助人工智能技术完美地模仿了他的声音。

视频中,赵薇在人工智能创建的剪辑和图像蒙太奇中说着中文,引起了人们对未经授权使用人工智能冒充公众人物的强烈关注。CZ将语音和唇语同步的准确性描述为 "令人不安"。

0:00
/0:15

通过生成式AI工具对加密货币高管进行数字复制的现象日益增多,最新案例就是恶意冒充行为。2023年卸任币安CEO职务后,赵长鹏仍持续影响着加密货币行业,此前他就曾警告公众注意深度伪造冒充的威胁。

2024年10月,他特别发出警告,由于网络上广泛传播使用其肖像的篡改内容,用户不应相信任何要求转账加密货币的视频内容。

深度伪造给加密货币领域带来日益严重的操作风险
根据赵长鹏最近的遭遇,冒充手段已从传统的静态图像和文字骗局,发展到了复杂的视听模拟,这种演进令人担忧。

曾任币安首席通讯官的帕特里克·希尔曼在2023年披露,诈骗者利用深度伪造视频冒充他,通过Zoom与项目方代表会面。诈骗者通过整合希尔曼多年来的公开采访和网络形象资料,制作出这段合成视频,使得所谓的"币安官方通话"显得真实可信。

先进的语音复制技术现已能完美模仿目标对象,甚至连被模仿者本人都难以分辨真伪,这大大超出了社交媒体身份盗用的威胁范畴。

千万美元级深度伪造骗局凸显风险
二月份的一起事件展现了高级深度伪造技术的金融风险:奥雅纳香港员工在微软Teams会议中被骗转账约2500万美元。据《南华早报》报道,参会人员全是人工智能模拟的虚拟形象,完美复制了英国财务总监及其同事的声纹样貌。

语音克隆技术日益普及
实现逼真语音克隆的技术正变得越来越易获取。ElevenLabs等平台仅需不到60秒的录音样本,就能为用户生成栩栩如生的语音克隆。某金融机构一月份数据显示,超过25%的英国成年人承认过去一年遭遇过语音克隆诈骗。

网络安全公司CyFlare的情报简报显示,暗网市场上语音克隆API的售价最低仅5美元起。商用版本通常包含数字水印系统和用户授权流程,而开源和非法版本往往不具备这些安全特性。

欧盟《人工智能法案》(2024年3月正式通过)要求所有公开使用的深度伪造内容必须带有明确标识。但该法规要到2026年才会全面生效,这段空窗期将形成显著的安全隐患。

硬件制造商正着手将检测功能集成到消费级产品中。在2025年巴塞罗那世界移动通信大会上,多家厂商展示了内置于设备的实时音视频篡改检测工具。尽管尚未商业化,这些技术方案有望减少用户对外部验证服务的依赖。

Hamza Ahmed 资料图片 Hamza Ahmed
更新日期
人工智能 加密货币 骗局
Consent Preferences