飞象网讯 据央视网报道,一些不法分子利用“AI换脸”技术实施诈骗,已成为一种新型骗局。一张“肖像照片”、一段“貌似熟人的视频”,都可能被不法分子利用作为诈骗的手段和工具。
“不法分子首先会通过各种公开的渠道获取受害人的个人肖像或视频,然后利用AI技术,对这些照片中的面容特征进行学习,从而模仿眨眼、摇头等动作,实现以假乱真的效果。”工业和信息化部反诈工作专班专家李坤表示,除了让照片上的人像活化,AI换脸技术还能实现在即时视频通信状态下的实时换脸。
利用AI技术制作换脸视频或合成声音来实施诈骗的确让人防不胜防,那么如何防范这种风险呢?李坤表示,我们正在会同行业内的手机终端企业,将推出AI换脸诈骗风险提醒功能。这项功能仅在手机端来本地运行,能够有效保护用户数据不泄露,经过用户授权后,可为用户提供AI换脸诈骗风险预警提醒。
当用 AI 换了脸的技术人员与记者发起视频通话时,测试手机终端提示“对方疑似假冒身份”。点击检测按钮,经过图像扫描,系统提示“AI 换脸合成概率 93%”。
据了解,AI换脸主要是使用深度合成技术。《互联网信息服务深度合成管理规定》提出了算法备案、安全评估的手段,要求深度合成服务提供者对深度合成的内容添加显式或隐式水印。
中国信通院人工智能所安全与元宇宙部专家陈文弢表示,要对生成合成的内容去添加一些水印,这个水印的本质其实就是要一方面去提示公众这个内容是由AI生成或者合成的,另一方面也是要追溯它的来源。
专家提醒,AI诈骗是隐私信息泄露与诈骗陷阱的结合,要加强对个人隐私的保护,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等,尤其涉及“朋友”“领导”等熟人要求转账、汇款的,务必通过多种途径核实确认,不要未经核实随意转账汇款。