“AI换脸”“AI配音”成诈骗新手段
不见面就要求转账,老年人要高度警惕
警示指出,随着2025年人工智能技术进入深度普及与应用融合的新阶段,“AI换脸”和“AI配音”诈骗手段迷惑性极强,对消费者,尤其是老年人的财产安全与个人隐私构成严重威胁。
通常,诈骗分子通过多步完成诈骗。首先,他们会在抖音、微信视频号、微博等社交平台,广泛搜集消费者或其亲友公开发布的清晰面部视频、语音片段,用于AI模型训练。随后,利用“深度伪造”技术合成出足以以假乱真的视频或音频。接着,他们会精心设计一个紧急情境,如声称遇到车祸、被拘留或业务急需付款等,利用受害者的慌乱心理降低其警惕性。最后,通过视频通话或发送伪造的语音、视频片段直接联系消费者,要求其向指定账户转账。
面对这类利用生物特征进行欺骗的新型犯罪,山西省消费者协会提示消费者,关键在于建立“多重验证”意识,不可单纯信赖眼见耳闻之象,并应谨记“三不”“二要”防范原则。
“三不”,即不轻信、不转账、不泄露。
具体而言,凡是通过视频、电话、短信等非见面方式要求转账汇款的情况,消费者,尤其是老年人要高度警惕。即使看到真人视频,听到熟悉的声音,老年人也要保持怀疑,因为骗子会利用“紧急情况”制造恐慌,让老年人来不及思考。
在未通过其他途径100%核实对方身份前,老年人坚决不能进行任何转账操作,这是守住“钱袋子”的最后一道,也是最关键的一道防线。
此外,老年人要妥善保护个人及其亲友的身份信息,谨慎在社交媒体上发布清晰的正面视频和包含声音的片段,尤其是涉及身份证、银行卡等敏感信息的视频,最好设置好友权限,以防信息被完全公开。“二要”,即要核实、要警惕。
也就是说,若“亲友”通过视频借钱,消费者应挂断电话,再按照手机通讯录里存储的号码(不是对方打来的号码或提供的号码)回拨过去,或通过其他共同认识的人进行核实。
消费者亦可与家人、密友协商设定一个仅双方知晓的暗语或特定问题,在处理大额资金交易时用以验证身份。
■温馨提示
AI技术并非天衣无缝。老年人通过仔细观察,就会发现视频中的人物可能出现表情僵硬、眨眼不自然、口型对不上、声音有轻微电子音或断句不合理等现象。此外,公安、检察院、法院等执法机构绝不会以视频或电话的方式,要求您将资金转账至所谓的“安全账户”。任何要求您保密且不得告知他人的行为,均是诈骗行为的显著特征。
一旦发觉被骗,老年人应第一时间拨打110报警电话或前往派出所报警,并提供对方账号、联系方式、聊天记录等证据。
记者 梁耀华
