ADVERTISEMENT
一位銀行經理接到公司董事打來的電話:公司有一項收購案,要從帳戶裡轉出巨額資金,希望他核准這道流程,還附上了相關律師的電子郵件,以確認金額和轉入帳戶。
這次交易看起來完全合乎規定,流程也沒有問題,何況還是老闆親自打來的電話,他就按要求將3500萬美元如數轉出。
晴天霹靂的背後是AI語音轉換
直到轉完帳之後,這位杜拜高級主管萬萬沒有想到,電話那頭熟悉的老闆的聲音,其實是用語音複製技術所合成的。
這樁詐騙案由富比士報導,但受害者的名字和其他更多細節沒有透露。據估計,這項精密的計畫至少涉及17人,自去年年初,騙取的資金已經發往全球各地的銀行帳戶。
如果不是親耳聽到,應該是不會相信會有這麼神奇的事。但根據《華爾街日報》的報導,這只是已知第二起使用語音合成工具進行的詐騙案,第一起案件是2019年犯罪者使用語音合成技術詐騙英國一間能源公司的執行長,得手24萬美元。
在杜拜這個案例中顯示,使用人工智慧這種高科技在網路犯罪中所製造出來的影像和聲音,能夠造成多大的破壞性。更可怕的是,如此逼真的轉換,操作過程並不難。
例如在Github上大熱門的的AI擬聲專案Real-Time-Voice-Cloning,能夠在5s內複製你的聲音並產生任意內容,還能直接下載或者自行訓練合成器。這個影片就是基於該專案的訓練成果。
開源項目可以直接從GitHub上直接獲取:
然後再錄入一段你的聲音和目標聲音,打出想要讀出的文本內容,就可以複製出一段輸出音訊了。
面對這樣以假亂真的效果,也就不難理解這位銀行高管為什麼會被輕易詐騙了。但這僅是已知使用語音合作實施巨額詐騙的第二例,已經遠比第一例英國某能源公司22萬歐元詐騙案更為成功,其破壞力可見一斑。
科技中立,善惡由人
如今已有少數資訊安全方面的創業公司關注到這一點。他們聲稱可以檢測出合成的語音以防止詐騙。 反詐原理是透過對比音訊裡單詞的實際發音在細微程度上是否與真實人類的說話模式相匹配,畢竟人類發音不會像機器一樣標準、機械化。 這也提醒了我們畏及時關注科技新進展,不斷提高安全意識。
對於長輩來說,今後除了要下載反詐騙app,可能還要多加一道驗證,看看電話另一端是不是真正的子女。
資料來源:
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!