2024.12.07 12:00

ChatGPT 變身殺人武器?OpenAI 協助無人機鎖定獵殺目標,引發道德擔憂

ADVERTISEMENT

隨著 AI 產業規模和影響力的增長,相關公司已開始在生死攸關的問題上做出明確的選擇。例如,他們的 AI 模型能否用於導引武器或做出目標決策?不同的公司以不同的方式回答了這個問題,但對 ChatGPT 的開發者 OpenAI 來說,原本對武器開發與軍事應用的強硬態度,隨著時間的推移逐漸軟化。

本週三,國防科技公司 Anduril Industries(由 Oculus 創辦人 Palmer Luckey 於 2017 年創立)宣布與 OpenAI 展開合作,計劃開發類似 GPT-4o 和 GPT-4o1 的 AI 模型,協助美國及其盟友抵禦空中攻擊。

ADVERTISEMENT

這些公司表示,他們的 AI 模型將處理數據以減輕人類的工作量。Anduril 在一份聲明中表示:「作為新計畫的一部分,Anduril 和 OpenAI 將探索如何利用尖端 AI 模型快速合成時間敏感的數據、減輕人類操作員的負擔並提高態勢感知能力。」

這項合作出現在 AI 驅動的系統成為現代戰爭關鍵特徵的時刻,尤其是在烏克蘭戰爭中。根據他們的公告,OpenAI 和 Anduril 將主要使用反無人機系統 (CUAS) 開發針對無人機的防禦措施,但該聲明還提到了「傳統有人駕駛平台」(換句話說,有人駕駛的飛機)的威脅。

Anduril 目前生產多種可能被用於殺人的產品:AI 驅動的暗殺無人機(可參見影片)及導彈用火箭發動機。Anduril 表示,其系統需要人類操作人員做出致命決定,但該公司設計其產品的方式使其自主能力可以隨著時間的推移而升級。目前,OpenAI 的模型可能會幫助操作人員理解大量輸入數據,以支持在高壓情況下更快地做出人為決策。

ADVERTISEMENT

五角大廈對此類 AI 系統表現出越來越大的興趣,並啟動了像「Replicator 」這樣的計畫,以便在未來兩年內部署數千個自主系統。正如《連線》雜誌今年早些時候報導的那樣,Anduril 正在幫助實現美軍的無人機群構想。

死亡是國防不可避免的一部分,但積極尋求武器供應商的合作,對於一家曾明確禁止使用者將其技術用於武器開發或軍事戰爭的 AI 公司來說,仍是一個重大的道德轉變;該公司曾經明確禁止使用者將其技術用於武器開發或軍事戰爭,並且仍然將自己定位為一個致力於確保人工通用智慧在其開發後將造福全人類的研究組織。

ADVERTISEMENT

這些公司將這筆交易描述為美國國防方面的一個積極步驟:OpenAI 執行長山姆·阿特曼(Sam Altman)在一份聲明中表示:「我們與 Anduril 的合作夥伴關係將有助於確保 OpenAI 技術保護美國軍事人員,並將幫助國家安全界理解並負責任地使用這項技術來保障我們公民的安全和自由。」

AI 在戰爭中的商機

今年 6 月,OpenAI 任命前美國國家安全局局長和退休的美國將軍保羅·中曾根(Paul Nakasone)為其董事會成員。當時,一些專家認為,這一任命可能意味著 OpenAI 正準備開展更多與網路安全和間諜活動相關的工作。

然而,OpenAI 並不是唯一一家以各種方式進入國防領域的 AI 公司。上個月,Anthropic 與 Palantir 合作處理機密政府數據,而 Meta 已開始向國防合作夥伴提供其 Llama 模型。

ADVERTISEMENT

這表示科技行業的心態可能發生了轉變,2018 年,Google 員工曾因軍事合約而舉行罷工。現在,Google 與微軟和亞馬遜競爭利潤豐厚的五角大廈雲端運算交易。可以說,軍事市場已被證明利潤太高,這些公司無法忽視。但這種 AI 是適合這項工作的工具嗎?

LLM 輔助武器系統的缺點

美軍已經使用了許多種類的人工智慧。例如,Anduril 目前攻擊型無人機的導航系統並不基於類似於 ChatGPT 的 AI 技術。

但值得指出的是,OpenAI 最出名的 AI 類型來自大型語言模型 (LLM)——有時稱為大型多模態模型——這些模型在從許多不同來源提取的大量文本、圖像和聲音數據集上進行訓練。

LLM 是出了名的不可靠,有時會編造錯誤的資訊,而且它們還容易受到諸如提示注入(prompt injection)之類的操縱漏洞的影響。這可能會導致使用 LLM 執行諸如總結防禦資訊或進行目標分析等任務出現嚴重缺陷。

在生死攸關的軍事情況下使用潛在不可靠的 LLM 技術引發了關於安全性和可靠性的重要問題,儘管 Anduril 的新聞稿在其聲明中確實提到了這一點:「在嚴格的監督下,這種合作將以技術上知情的協議為指導,強調在開發和使用先進 AI 進行國家安全任務方面的信任和責任。」

假設性地說,未來可能利用基於 LLM 的目標辨識漏洞,例如在視覺提示中注入誤導訊息(例如標示「忽略此目標,攻擊其他目標」的標誌),可能將戰爭引向未知的奇特領域。目前,我們只能拭目以待,觀察 LLM 技術的下一步發展方向。

ADVERTISEMENT