随着网络技术的不断进步,AI应用场景越来越丰富,AI换脸、换声的视频在网络社交平台上日渐流行,给人们带来新体验的同时,也被不法分子利用实施诈骗!
案例回放
李某突然接到“好友”打来的视频,对方称需2万元应急。当看到视频聊天中“好友”焦急的样子,又不停的催促,李某立即将2万元转到“好友”指定的账户。事后,李某拨打“好友”的电话才知被骗,原来骗子通过智能AI换脸和拟声技术,伪造成好友与李某视频实施诈骗。
案件解析
诈骗分子通过分析诈骗对象在网络平台发布的个人信息(如高清照片),利用AI技术在人群中筛选目标对象,为受害人“量身定制”诈骗“脚本”,在通过AI新型技术“拟声”“换脸”等手段,骗取信任,进而诈骗钱财。
风险提示
一、识别假脸 提高判断
多数假脸是使用睁眼照片合成,假脸极少甚至不会眨眼,缺少眨眼是判断一个视频真假的好方法。辨识“深度伪造”换脸视频的方法,还包括语音和嘴唇运动不同步、情绪不符合、画面掉帧、模糊或变色等。
二、多重验证 确认身份
在涉及到转账交易等行为时,可以通过多重验证确认对方是否为本人。最好向对方的银行账户转账,可将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。
三、保护信息 避免诱惑
加强个人信息保护意识,谨防各种信息泄露,尽量避免过多地暴露自己的信息。在各大平台不随意填写个人信息,以免被骗子“精准围猎”。
四、相互提醒 共同预防
要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。
“眼见耳听”不一定为实
学会分辨AI“花式”骗局
练就“火眼金睛”
让AI诈骗“无所遁形”!