日期:[2025年12月15日] -- 智慧生活报 -- 版次:[A6]

“AI换脸”“AI配音”成诈骗新手段

不见面就要求转账,老年人要高度警惕

  “AI换脸”和“AI配音”技术(统称“深度伪造”技术)在给生活带来新意的同时,也成了诈骗分子的新工具。12月12日,山西省消费者协会发布了消费警示,提醒广大消费者务必遵循“三不”“二要”原则,以确保有效防范新型诈骗行为。

  警示指出,随着2025年人工智能技术进入深度普及与应用融合的新阶段,“AI换脸”和“AI配音”诈骗手段迷惑性极强,对消费者,尤其是老年人的财产安全与个人隐私构成严重威胁。
  通常,诈骗分子通过多步完成诈骗。首先,他们会在抖音、微信视频号、微博等社交平台,广泛搜集消费者或其亲友公开发布的清晰面部视频、语音片段,用于AI模型训练。随后,利用“深度伪造”技术合成出足以以假乱真的视频或音频。接着,他们会精心设计一个紧急情境,如声称遇到车祸、被拘留或业务急需付款等,利用受害者的慌乱心理降低其警惕性。最后,通过视频通话或发送伪造的语音、视频片段直接联系消费者,要求其向指定账户转账。
  面对这类利用生物特征进行欺骗的新型犯罪,山西省消费者协会提示消费者,关键在于建立“多重验证”意识,不可单纯信赖眼见耳闻之象,并应谨记“三不”“二要”防范原则。
  “三不”,即不轻信、不转账、不泄露。
  具体而言,凡是通过视频、电话、短信等非见面方式要求转账汇款的情况,消费者,尤其是老年人要高度警惕。即使看到真人视频,听到熟悉的声音,老年人也要保持怀疑,因为骗子会利用“紧急情况”制造恐慌,让老年人来不及思考。
  在未通过其他途径100%核实对方身份前,老年人坚决不能进行任何转账操作,这是守住“钱袋子”的最后一道,也是最关键的一道防线。
  此外,老年人要妥善保护个人及其亲友的身份信息,谨慎在社交媒体上发布清晰的正面视频和包含声音的片段,尤其是涉及身份证、银行卡等敏感信息的视频,最好设置好友权限,以防信息被完全公开。“二要”,即要核实、要警惕。
  也就是说,若“亲友”通过视频借钱,消费者应挂断电话,再按照手机通讯录里存储的号码(不是对方打来的号码或提供的号码)回拨过去,或通过其他共同认识的人进行核实。
  消费者亦可与家人、密友协商设定一个仅双方知晓的暗语或特定问题,在处理大额资金交易时用以验证身份。

■温馨提示
  AI技术并非天衣无缝。老年人通过仔细观察,就会发现视频中的人物可能出现表情僵硬、眨眼不自然、口型对不上、声音有轻微电子音或断句不合理等现象。此外,公安、检察院、法院等执法机构绝不会以视频或电话的方式,要求您将资金转账至所谓的“安全账户”。任何要求您保密且不得告知他人的行为,均是诈骗行为的显著特征。
  一旦发觉被骗,老年人应第一时间拨打110报警电话或前往派出所报警,并提供对方账号、联系方式、聊天记录等证据。

  记者 梁耀华