Europol 網路犯罪中心主任 Edvardas Šileris 表示:「隨著大眾對 AI 遭到濫用的疑慮不斷升高,我們有必要公開揭露這些威脅,也應探討 AI 技術的發展潛力。這份報告不僅有助於我們預測 AI 可能會如何遭到濫用,也有助於我們主動防範並降低這些威脅,如此才能真正釋放 AI 的潛力,讓 AI 系統發揮正面影響力。」
根據報告結論,AI 既是網路犯罪集團的攻擊手法,也是攻擊目標。雖然 Deepfake 是目前最為人熟知的 AI 攻擊手法,但也警告我們未來需要新的過濾技術來防範假訊息攻擊與網路勒索的風險,並防範專門以 AI 資料為目標的攻擊。歹徒正在開發一些 AI系統來提升惡意程式的成效,並干擾惡意程式防護與臉部辨識系統的運作。
AI 可能遭歹徒利用的方式包括:製造難辨真偽的大規模社交工程攻擊、開發文件內容辨識惡意程式以提升攻擊效率、躲避影像辨識與語音生物辨識技術、勒索病毒攻擊,利用人工智慧來篩選攻擊目標並躲避偵測,以及資料汙染,發掘偵測規則中的盲點。
UNICRI 人工智慧與機器人中心主任 Irakli Beridze 指出:「隨著 AI 應用程式開始對真實世界發揮重大影響,很顯然地,它將成為我們未來的一項技術基礎。然而,如同 AI 對人類社會的貢獻具體而真實一樣,其遭到歹徒不肖濫用的威脅也同樣存在。」
趨勢科技前瞻威脅研究 團隊總監 Martin Roesler 表示:「網路犯罪集團一直都是最新技術的率先採用者,AI 技術也不例外。正如這份報告所指出,AI 已經被用於猜測密碼、破解 CAPTCHA 認證、複製人類語音,以及其他眾多開發當中的非法技術。」
以下是三家機構在結論中所提供的幾項建議:發揮 AI 的潛力,讓它成為打擊犯罪的工具,也讓網路資安產業與執法機關跟上時代洪流。藉由持續不斷的研究來激發更多防禦技術的發展,並提倡並發展安全的 AI 設計架構。減少政治口水,讓 AI 應用於網路資安用途。此外,需透過公私部門合作來建立跨領域專家群組。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!