【AI詐騙】眼見耳聽都未必為真

防騙
騙局
投資騙局
網上詐騙

發布者: 錢生20/05/2025

接聽視像電話,裡面是熟識親人的樣子及聲音,你會否想到這可能是運用AI技術的詐騙? 以前,我們經常說有圖有真相,但在人工智能時代(Artificial Intelligence,簡稱AI),即使有圖、有聲音、有影片、甚至視像電話都未必可信。

隨著AI技術的迅速發展,騙徒也利用AI進行詐騙,例如通過深偽技術(Deepfake)同語音克隆 (Voice Cloning),複製他人的樣貌及聲音,制造幾可亂真的虛假影片或聲音。語音克隆是一種常見的AI技術,騙徒可以透過短時間的錄音樣本模仿某人的聲音,而Deepfake則利用AI合成技術偽造人物的面部表情與聲音。

常見的AI詐騙手法包括假扮受害人的親友或上司,要求轉帳或提供機密資料,或假扮名人或投資專家誘騙投資虛擬資產。這類騙局因影像及聲音都極度逼真,令人難辨真偽,很容易墮入騙徒陷阱。

大家必須提高警覺,特別是一些看似吸引的投資機會,以及是任何與錢有關的請求,都必須三思及查證事實真假。若是熟人要求轉帳或提供個人資料,應另行致電當事人進行確認。此外,可參考警方提供的Deepfake防騙貼士:

1.    要求對方於鏡頭前做特定動作,留意影像是否有異;
2.    以不同語言試探對方真偽;
3.    用約定暗號確應對方身份;
4.    當涉及匯款等要求,作多方面核實;
5.    避免接聽陌生視像來電;
6.    善用「防騙視伏器」作詐騙風險評估。
7.    若有懷疑,立即撥打香港警方「防騙易熱線18222」尋求協助。