随着AI(人工智能)合成技术日益发展,一些不法分子也开始利用其合成音视频实施诈骗。“AI换脸换声”成为诈骗的新手段。
据了解,目前市面上已经有多款软件实现快速AI换脸、AI克隆声音、数字人生成等功能。在生成视频数字人的软件中,能提供电商、金融理财、医疗保健、教育培训等领域的数字人视频素材,输入文字即可合成配音。此外,还可以利用照片定制专属的数字人形象,生成视频。
AI克隆声音实现起来更为简单,只需要提供某人一句话的声音素材,即可生成“专属克隆声音”。有不少人尤其是老年人没听过AI合成的声音,想象不出其与真人说话的相似程度,即便是熟悉人的声音,老人也很容易被迷惑,因此成为诈骗分子实施诈骗的首选目标。
文字:王国秀
制图:段永光
编辑:霍天舒
审核:乌日吐木林
请输入验证码