【AI诈骗】眼见耳听都未必为真
在人工智能时代,即使有图、有声音、有影片、甚至视像电话都未必可信。
/sites/web/common/images/blog/mr-chin/ai-scams.jpg
2025
Article
Blog: author: mr chin
Scams-MoneyEssentials
Hot
20/05/2025
接听视像电话,里面是熟识亲人的样子及声音,你会否想到这可能是运用AI技术的诈骗? 以前,我们经常说有图有真相,但在人工智能时代(Artificial Intelligence,简称AI),即使有图、有声音、有影片、甚至视像电话都未必可信。
随着AI技术的迅速发展,骗徒也利用AI进行诈骗,例如通过深伪技术(Deepfake)同语音克隆 (Voice Cloning),复制他人的样貌及声音,制造几可乱真的虚假影片或声音。语音克隆是一种常见的AI技术,骗徒可以透过短时间的录音样本模仿某人的声音,而Deepfake则利用AI合成技术伪造人物的面部表情与声音。
常见的AI诈骗手法包括假扮受害人的亲友或上司,要求转帐或提供机密资料,或假扮名人或投资专家诱骗投资虚拟资产。这类骗局因影像及声音都极度逼真,令人难辨真伪,很容易堕入骗徒陷阱。
大家必须提高警觉,特别是一些看似吸引的投资机会,以及是任何与钱有关的请求,都必须三思及查证事实真假,可参考以下Deepfake防骗贴士:
1. 若是熟人要求转帐、汇款或提供个人资料,应另行致电当事人进行确认;
2. 如果是视像通话,可要求对方于镜头前做特定动作,留意影像是否有异;
3. 以不同语言试探对方真伪;
4. 用约定暗号或问题确应对方身份;
5. 凡是涉及金钱的要求,作多方面核实;
6. 避免接听陌生视像来电;
7. 善用「防骗视伏器」作诈骗风险评估。
8. 若有怀疑,立即拨打香港警方「防骗易热线18222」寻求协助。



