技术渗透带来的新型欺诈:AI换脸/语音克隆能不能治?
飞象原创(远山/文)当一段视频通话中的“领导”以急事为由要求转账,当社交媒体上突然出现“明星代言”的虚假广告,当父母收到“子女”声泪俱下的求助语音……这些看似荒诞的场景,正随着AI换脸与语音克隆技术的普及,成为新型犯罪的温床。
技术的光影之下,人性的贪婪与法律的滞后交织成一张复杂的网,既时刻威胁着个体的权益,同时也拷问着社会治理的智慧。
技术滥用的现实图景:从个案到现象
2025年春节前夕,西安市雁塔区法院审理的一起案件引发关注。某公司未经授权使用AI换脸技术,将一名女演员的肖像嫁接至带货视频中,误导消费者认为其与商品存在代言关系。法院最终判决该公司赔偿经济损失并公开道歉。
这仅是冰山一角。更恶劣的案例中,杭州的虞某利用AI换脸制作并传播淫秽视频,非法牟利超百万元,最终被判处七年三个月有期徒刑。
技术的“易得性”与犯罪的“低成本”形成鲜明对比——广州南沙区法院2024年判决的一起案件中,五名被告人仅凭购买教程和开源软件,便搭建起一条通过伪造人脸识别视频非法修改系统数据的黑色产业链,涉案金额高达120万元。
而更具迷惑性的,是技术对人际信任的瓦解。天津市民李先生接到“领导”视频电话,画面中对方神态自若,声音与惯常无异。在“眼见为实”的心理暗示下,他分三次转账95万元,直到次日当面确认才知受骗。
类似案件中,江西一位老人甚至因网恋“假靳东”AI换脸视频,不惜贷款200万元资助“偶像拍戏”,最终血本无归。这些案例揭示了一个残酷现实:当技术能够完美复刻人类的外貌与声线,传统的社会信任机制正在遭遇降维打击。
技术双刃剑:重构认知与冲击秩序
AI换脸与语音克隆的负面影响早已超越个体受害范畴,演变为系统性风险。首先是对人格权的全面侵蚀。《民法典》明确肖像权与声音权受法律保护,但实践中,一张照片、一段录音便足以让技术伪造出以假乱真的数字分身。2023年河北李先生遭遇的案例中,诈骗者利用其社交照片制作虚假色情视频实施敲诈,致其社会评价断崖式下跌。
其次是经济秩序的混乱。广州南沙案件中,犯罪团伙通过篡改企业认证数据,帮助未达标公司非法获取资质,直接扰乱市场竞争环境。类似通过AI技术手段进行不当牟利的事件还有很多,已经对正常的经济秩序造成越来越显著的危害。
更深层的危机在于社会认知基石的动摇。当“有图有真相”沦为过去式,公众对信息真实性的集体焦虑可能催生普遍的怀疑主义,甚至削弱司法取证的公信力。一旦整个社会的认知基础受到削弱,随之而来的就是因信任成本抬升而让整个社会弥漫着低效、迟钝与悲观的气氛。
我们不得不认识到,技术滥用的危害链条仍在延伸。从个人隐私泄露到网络诈骗,从商业诋毁到政治谣言,技术的每一次迭代都在为犯罪提供新工具,而技术革新的步伐是不可阻挡的,存在可能为潜在的犯罪行为提供机会的漏洞也是在所难免。
据公安部网安局统计,2024年利用深度合成技术实施的诈骗案件同比激增230%,单案最高损失逾千万元。这种“技术黑产”的蔓延速度,已远超传统法律规制的反应周期。
如何治理:法治框架的补位与革新
面对技术狂飙,法律必须成为勒住缰绳的手。现行法律体系已具备初步规制能力:《民法典》第1019条明确禁止利用信息技术伪造他人肖像,第1034条将生物识别信息纳入个人信息保护范畴;《刑法》中诈骗罪、侵犯公民个人信息罪等条款可覆盖多数技术滥用行为。杭州虞某案与广州南沙案的判决表明,司法机关正通过扩大解释将新型犯罪纳入传统罪名框架。
但专项立法的缺位仍显尴尬。全国政协委员靳东在2025年两会期间直言:“现有法律对AI换脸侵权的低成本与维权高难度失衡,客观上纵容了技术滥用”。这种困境在《庆余年》AI剪辑侵权案中尤为突出——尽管法院判定侵权,但维权方需耗费数月完成技术鉴定,而侵权者仅需几分钟即可生成新内容。
治理创新已在路上。技术治理层面,数字水印技术的推广为内容溯源提供可能。该技术可在视频中嵌入隐形标识,记录创作者与版权信息,一旦内容被篡改即可追踪源头。
立法层面,2025年实施的《互联网信息服务深度合成管理规定》要求AI生成内容添加显著标识,这为平台审核提供了抓手。
司法实践层面,多地法院开始探索“举证责任倒置”,要求技术使用者自证合法性,减轻被侵权方举证压力。
行业新范式:在规制与创新间寻找平衡点
规范技术应用绝不等于扼杀创新。历史经验表明,印刷术催生了版权制度,互联网孕育了数据安全法,每一次技术革命都伴随着法律体系的适应性进化。
关键在于划定清晰的“技术红线”:对于影视特效、医疗仿真等正向应用,应通过许可制与行业标准予以鼓励;而对身份伪造、内容篡改等高风险场景,则需建立分级分类监管体系。全国人大代表雷军提出的“建立AI换脸技术备案库”建议,正是试图在开放创新与风险管控间找到平衡。
企业的技术伦理建设同样重要。部分平台已推出“生物特征脱敏”工具,允许用户上传照片时自动模糊关键特征,既满足社交需求又降低滥用风险。这种“隐私设计(Privacy by Design)”理念,将合规性嵌入技术开发生命周期,或将成为行业新范式。
多元共治:3.15视角下的治理紧迫性
在2025年“3.15国际消费者权益日”来临之际,治理AI技术滥用更具现实意义。据中消协最新调查,67%的消费者遭遇过AI合成内容误导,其中超三成造成直接经济损失。
当技术欺诈成为消费侵权的重灾区,不仅全社会应提高对技术欺诈的警惕性,相关管理职能部门更应强化防范与治理的措施。对于技术欺诈行为,治理行动或可根据具体情况从三方面发力。
一是强化平台责任,要求社交、电商平台部署深度合成内容识别系统,对未标注“AI生成”标识的内容限流或下架,同时也应完善甄别与补救措施,避免对正常内容的限制与误伤;
二是完善救济机制,建立“AI侵权快速响应通道”,简化电子证据取证流程,并与相关管理职能部门进行联动;
三是提升公众素养,通过案例宣传揭露常见技术骗局,培养“多重验证”的安全习惯——正如公安部网安局提示:“涉及转账务必通过电话、见面等二次确认”。
技术的列车不会停歇,但轨道必须延伸在法治与伦理的基石之上。从两会代表呼吁专项立法,到法院判决树立裁判规则,从企业探索技术合规,到公众提升防范意识,多元共治的格局正在形成。
唯有让技术创新在阳光下奔跑,才能避免“技术利维坦”的阴影笼罩人类的未来。
编辑:章芳