警惕AI诈骗!利用AI冒充孙子声音,老人被骗数万现金
21世纪经济报道·2026-02-27 21:06

新型AI诈骗犯罪模式 - 出现专门针对老年人群体的新型AI诈骗手段,诈骗分子利用AI拟声技术模拟亲人声音进行诈骗[2] - 诈骗模式为团伙线上线下结合作案,线上利用AI远程实施诈骗,线下由专人上门取款[2] - 最高人民法院于2月26日发布了利用AI诈骗的典型案例,其中一例为骗子假装拨通老人孙子电话,同伙用AI模仿其孙子声音,以“急需用钱”为由骗走老人6万元人民币[2] 行业技术风险与监管动态 - AI拟声技术已被不法分子用于电信诈骗,其模仿声音的逼真程度极高,连哭腔等细节都能对得上,足以以假乱真,使受害者放松警惕[2] - 最高人民法院已就此发布紧急提醒,指出电话中所谓“亲人”的声音可能是假的[3] - 官方建议的防范措施是:接到陌生电话要求转账汇款时,无论声音多么相似,都应立即挂断电话,并通过其他方式联系家人或当面进行核实[3]

警惕AI诈骗!利用AI冒充孙子声音,老人被骗数万现金 - Reportify