詐騙集團花招推陳出新,就連近期的熱門話題AI人工智能也成了新的犯罪趨勢,就有一對加拿大老夫妻接到AI冒充兒子聲音的電話,聲稱自己車禍撞死人急需保釋金,最終被騙走2.1萬美元(約台幣64萬2921元);根據美國聯邦貿易委員會(FTC)統計數據顯示,相關詐騙案件在2022年已經來到240萬件,整體損失的金額高達88億美元(約新台幣2700億元)。
▲加拿大一對老夫妻因「AI仿聲」太逼真,像極兒子的聲音進而上當受騙。(示意圖/Shutterstock)
綜合外媒報導,加拿大一對夫婦接到一通電話,對方聲稱是他們兒子鉑金(Benjamin Perkin)的律師,聲稱鉑金開車撞死一名外交官被捕入獄,急需現金保釋,與此同時,電話那頭還傳來「鉑金」的嗓音開口向他們要錢,並溫情喊話「我愛你們」。由於詐騙集團的仿聲實在逼真,愛子心切的夫妻倆不做他想,立即籌措2.1萬美元並通過虛擬貨幣付款匯給對方,直到兒子打電話回家,兩人才驚覺上當。
事後回想起來,夫妻倆坦言「假兒子」的談話內容確實有些奇怪,不過當時並沒有意識到。至於詐騙集團是從何處取得兒子的聲音素材,鉑金受訪時透露,過去他曾在YouTube頻道上傳一部關於雪上摩托車的影片,懷疑詐騙集團是從影片擷取音軌等方式進行合成與偽造,這才讓老夫妻信以為真,目前一家人已經向警方報案,但也清楚知道錢已經難以討回。
▲越來越多不肖分子透過AI技術犯罪,只需短短30秒的影片就能仿造出逼近真人的聲音向其家屬行詐。(示意圖/Shutterstock)
據《華盛頓郵報》報導指出,日益發達的AI科技讓仿聲變得更加簡單,加州大學柏克萊分校數位鑑識科學教授法力德(Hany Farid)坦言,在一、兩年前複製人聲仍需要大量音檔,但如今只須擷取臉書或TikTok中30秒的音檔,聲音就能被輕鬆複製。在這影音內容當道的年代,素材早已變得隨手可得,加上成本較低的情況下「AI冒名」就成了時下不肖份子的犯罪新趨勢。根據美國聯邦貿易委員會報告顯示,這些冒名詐騙在2022年通報數量已來到240萬件,雖然整體案件數量比2021年低,但是損失金額卻更高,共遭詐騙損失88億美元。
留言評論