中新网北京11月8日电(张钰惠)近日,有媒体曝光了一起诈骗案件,被诈骗者遭遇AI换脸诈骗,10分钟被“好友”骗走430万元。近年来,AI换脸、换声视频在网络上流行起来,AI合成的技术门槛逐渐降低。随着人工智能技术的广泛应用,一些不法分子开始利用其实施新型网络诈骗。
AI诈骗能有多逼真?如何识别和预防AI诈骗?
网络上的AI合成教学
从号码到声音,
AI诈骗能有多逼真?
“一年之前为了留学办签证,我需要提供30万的存款证明,我第一反应就是这个。”王欣回忆起,曾和母亲有过关于30万元的对话。此外,王欣偶尔会在朋友圈和其它社交媒体上发自己的照片、视频和声音,身边还有朋友喜欢在社交媒体上发类似的内容,曾在社交媒体上被冒充向身边的人索要钱财。
如何识别和预防AI诈骗?
涉及资金往来应多途径核对
还有专家表示,在使用互联网服务或者在社会生活中,要求输入人脸等生物特征数据的时候,要看对方收集生物特征数据是不是符合《数据安全法》《个人信息保护法》的要求,是不是合法、正当和必要。
近年来,国家出台一系列规定防范AI诈骗。2022年11月,网信办、工信部和公安部发布的《互联网信息服务深度合成管理规定》明确,深度合成服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,具有安全可控的技术保障措施。
今年8月开始施行的《生成式人工智能服务管理暂行办法》规定,提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。
THE END