國際

被AI騙走9萬多令吉!夫妻接電話以為兒子在求救 聲音竟是合成

加拿大一對夫妻接到一通電話,聽見“兒子”表示出車禍急需法律費用,心急如焚地透過比特幣匯款2.1萬美元(9.39萬令吉),後來才知道慘遭詐騙。原來,他們當初聽到的熟悉聲音不是親生孩子而是人工智慧(AI)模擬合成。

《華郵》報道,受害夫妻接到第一通電話,從自稱“律師”的男子口中得知,兒子本傑明在一場車禍中撞死外交官而入獄,接著話筒傳來“本傑明的聲音”開口要錢。後來,他們又接到第二通電話,“律師”宣稱本傑明需要2.1萬美元的法律費用才能出庭。

Advertisement

夫妻倆愛子心切而迅速匯款,後來才隱約感到有些奇怪,不過直到“真的”本傑明當天稍晚打電話過來,他們才驚覺受騙!

本傑明說,那個聲音是“足夠接近(我的聲音),讓我的父母真的相信他們在跟我說話。”盡管一家人趕緊向加拿大當局報案,可是“錢不見了,沒有保險,拿不回來。”

他不知道詐騙集團從那里獲得自己的聲音,不過確實在YouTube發布關於雪上摩托車的影片。

《商業內幕》報道,更強大的人工智慧興起之際,冒充身份的詐騙案也持續增多。不過,早在ChatGPT問世前,涉及AI技術的詐騙就已出現。

ADVERTISEMENT

2019年,英國能源公司一名經理把24萬多美元匯入一個匈牙利戶頭,因為他以為“老板”打電話要求這麼做。今年1月,研究AI聲音覆制和語音合成的美國新創公司ElevenLabs也表示,他們注意到有人“把我們的科技用於惡意目的”,出現“越來越多聲音覆制的濫用案例。”舉個例說,4chan匿名論壇上就有不法人士使用AI技術模擬與名人相似的聲音,說出種族歧視的不恰當言論。

美國聯邦貿易委員會(FTC)去年共接獲240萬人通報欺詐案,最常見類型就是冒名頂替者詐騙(imposter scams),盡管案件比前年低,可是損失金額很高,來到88億美元(393億令吉)。

FTC已成立一間科技辦公室,專門調查有發展前景且可能使用AI的公司,是否嘗試降低產品可能造成的風險。發言人格倫瓦爾德說,他們已經發現社媒上的欺詐案激增,“產生看似真實影片、相片、音檔和文本的AI工具可能加速這個趨勢,讓騙子更容易接觸受害人,速度也更快…我們也關心深偽探術(deepfake)與其他基於人工智慧的合作媒體的風險,它們變得越來越容易創作和散布,將被用於詐騙。”

文/圖:互聯網

Tags
你也可能感兴趣...