ADVERTISEMENT
研究人員最近展示了操縱大型語言模型 (LLM) 和聊天機器人技術用於高度惡意目的的能力,例如傳播自我複製的電腦蠕蟲病毒。一項新研究揭示了目前市場上最先進的聊天機器人 GPT-4,只需透過檢查漏洞細節就可以利用極其危險的安全性漏洞。
該研究表明,大型語言模型變得越來越強大,但缺乏指導其行為的道德原則。研究人員測試了各種模型,包括 OpenAI 的商用產品、開源大型語言模型以及 ZAP 和 Metasploit 等漏洞掃描器。他們發現,只要能夠獲取此類漏洞的詳細描述,高級人工智慧體就可以「自主利用」真實世界系統中的零日漏洞。
在研究中,大型語言模型被用來對抗包含 15 個零日漏洞的資料庫,這些漏洞涉及網站漏洞、容器漏洞和易受攻擊的 Python 套裝軟體。研究人員指出,其中一半以上的漏洞在其各自的 CVE 描述中被歸類為「高」或「嚴重」等級。此外,在測試時還沒有任何的錯誤修復程式或修補程式。
這項研究由來自伊利諾大學厄巴納-香檳分校 (UIUC) 的四名電腦科學家撰寫,旨在進一步研究聊天機器人自動進行網路攻擊的潛力。他們的發現表明,GPT-4 能夠利用 87% 的測試漏洞,而其他模型,包括 GPT-3.5,成功率為 0%。
UIUC 助理教授丹尼爾·康(Daniel Kang)強調了 GPT-4 自主利用零日漏洞的能力,即使開源掃描器也無法檢測到這些漏洞。隨著 OpenAI 已經著手研發 GPT-5,Kang 預計大型語言模型代理將將成為民主化漏洞利用和網路犯罪的強大工具,深受「腳本小子」和自動化愛好者的歡迎。
然而,要有效利用公開披露的零日漏洞,GPT-4 需要獲取完整的 CVE 描述以及透過嵌入式連結的其他資訊。康建議的一種潛在緩解策略是,安全性群組織不要發表有關漏洞的詳細報告,進而限制 GPT-4 的利用潛力。
儘管如此,康懷疑「透過隱蔽性來獲得安全性」這一方式的有效性,儘管研究人員和分析師的觀點可能有所不同。相反,他主張採取更積極主動的安全措施,例如定期更新軟體程式,以更好地應對現代「被武器化」的聊天機器人所帶來的威脅。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!