Deepfake 人工智慧系統最險惡的功能之一是能夠複製一個人的聲音,即使只是一段簡短的錄音。人們聲音的深度偽造版本以及偽造的視訊可以用來使其聽起來和看起來好像政客或名人說了一些他們實際上從未說過的話。此外,還有一些情況是,人們接到詐騙電話,其中朋友或家人的深度偽造聲音要求他們因某種緊急情況盡快匯款。 此外,複製的聲音可用於繞過語音識別安全系統。
然而,一種名為 AntiFake 的新軟體工具可以幫助防止這種情況發生。
已經有技術可以確定所謂的聲音是否是深度偽造的,AntiFake 是最早阻止此類偽造聲音產生的系統之一。 簡而言之,它是透過讓人工智慧系統更難讀取真人聲音錄音中的關鍵聲音特徵來實現這一點。
「該工具使用了一種對抗性人工智慧技術,該技術最初是網路犯罪分子工具箱的一部分,但現在我們反過來用它來防禦他們。」發明者、聖路易華盛頓大學電腦科學與工程助理教授張寧說。
「我們只是稍微弄亂了錄製的音訊訊號,對其進行扭曲或擾動,使其對人類聽眾來說仍然聽起來不錯,但這與人工智慧感知到的完全不同。」
這意味著,即使深度偽造是根據經過 AntiFake 修改的錄音建立的,它聽起來也不會像說話者的實際聲音。 迄今為止進行的測試表明,該技術在防止合成令人信服的深度贋品方面的有效性超過 95%。
張說:「雖然我不知道人工智慧語音技術的下一步會是什麼——新的工具和功能一直在開發——但我確實認為我們利用對手的技術來對抗他們的策略將繼續有效。」
任何需要的人都可以免費獲得防偽程式碼:
https://sites.google.com/view/yu2023antifake
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!