接聽視像電話,裡面是熟識親人的樣子及聲音,你會否想到這可能是運用AI技術的詐騙? 以前,我們經常說有圖有真相,但在人工智能時代(Artificial Intelligence,簡稱AI),即使有圖、有聲音、有影片、甚至視像電話都未必可信。
隨著AI技術的迅速發展,騙徒也利用AI進行詐騙,例如通過深偽技術(Deepfake)同語音克隆 (Voice Cloning),複製他人的樣貌及聲音,制造幾可亂真的虛假影片或聲音。語音克隆是一種常見的AI技術,騙徒可以透過短時間的錄音樣本模仿某人的聲音,而Deepfake則利用AI合成技術偽造人物的面部表情與聲音。
常見的AI詐騙手法包括假扮受害人的親友或上司,要求轉帳或提供機密資料,或假扮名人或投資專家誘騙投資虛擬資產。這類騙局因影像及聲音都極度逼真,令人難辨真偽,很容易墮入騙徒陷阱。
大家必須提高警覺,特別是一些看似吸引的投資機會,以及是任何與錢有關的請求,都必須三思及查證事實真假。若是熟人要求轉帳或提供個人資料,應另行致電當事人進行確認。此外,可參考警方提供的Deepfake防騙貼士:
1. 要求對方於鏡頭前做特定動作,留意影像是否有異;
2. 以不同語言試探對方真偽;
3. 用約定暗號確應對方身份;
4. 當涉及匯款等要求,作多方面核實;
5. 避免接聽陌生視像來電;
6. 善用「防騙視伏器」作詐騙風險評估。
7. 若有懷疑,立即撥打香港警方「防騙易熱線18222」尋求協助。