接听视像电话,里面是熟识亲人的样子及声音,你会否想到这可能是运用AI技术的诈骗? 以前,我们经常说有图有真相,但在人工智能时代 (Artificial Intelligence,简称AI),即使有图、有声音、有影片、甚至视像电话都未必可信。
随着AI技术的迅速发展,骗徒也利用AI进行诈骗,例如通过深伪技术(Deepfake)同语音克隆 (Voice Cloning),复制他人的样貌及声音,制造几可乱真的虚假影片或声音。语音克隆是一种常见的AI技术,骗徒可以透过短时间的录音样本模仿某人的声音,而Deepfake则利用AI合成技术伪造人物的面部表情与声音。
常见的AI诈骗手法包括假扮受害人的亲友或上司,要求转帐或提供机密资料,或假扮名人或投资专家诱骗投资虚拟资产。这类骗局因影像及声音都极度逼真,令人难辨真伪,很容易堕入骗徒陷阱。
大家必须提高警觉,特别是一些看似吸引的投资机会,以及是任何与钱有关的请求,都必须三思及查证事实真假。若是熟人要求转帐或提供个人资料,应另行致电当事人进行确认。此外,可参考警方提供的Deepfake防骗贴士:
1. 要求对方于镜头前做特定动作,留意影像是否有异;
2. 以不同语言试探对方真伪;
3. 用约定暗号确应对方身份;
4. 当涉及汇款等要求,作多方面核实;
5. 避免接听陌生视像来电;
6. 善用「防骗视伏器」作诈骗风险评估。
7. 若有怀疑,立即拨打香港警方「防骗易热线18222」寻求协助。