2025.01.31 09:30

什麼是「殺傷鏈」?五角大廈如何利用 AI 加速軍事決策?

ADVERTISEMENT

 

領先的人工智慧開發商如 OpenAI 和 Anthropic 正在小心翼翼地向美國軍方推銷軟體:讓五角大廈更有效率,同時不讓他們的人工智慧殺人。五角大廈首席數位和人工智慧官拉達·普拉姆博士(Dr. Radha Plumb)在接受採訪時表示,如今,他們的工具並未被用作武器,但人工智慧正在為國防部在識別、追蹤和評估威脅方面帶來「顯著優勢」。

普拉姆說:「顯然,我們正在增加加速執行殺傷鏈的方法,以便我們的指揮官能夠在正確的時間做出反應,保護我們的部隊。」

ADVERTISEMENT

「殺傷鏈」殺傷鏈在軍事上指的是一種攻擊過程,具體是指識別所要打擊的目標、向目標派遣兵力、決定並下令攻擊目標、最後摧毀目標等一系列攻擊過程。涉及到軍隊識別、追蹤和消除威脅的過程,涉及感測器、平台和武器的複雜系統。據普拉姆稱,在殺傷鏈的規劃和戰略制定階段,生成式人工智慧證明是有幫助的。

五角大廈與人工智慧開發者之間的關係相對較新。OpenAI、Anthropic 和 Meta 在 2024 年收回了他們的使用政策,允許美國情報和國防機構使用他們的人工智慧系統。不過,它們仍然不允許人工智慧傷害人類。

當被問及五角大廈如何與人工智慧模型供應商合作時,普拉姆說:「我們已經非常清楚,我們會在什麼情況下使用他們的技術,不會在什麼情況下使用他們的技術。」

ADVERTISEMENT

儘管如此,這還是為人工智慧公司和國防承包商拉開了一輪交集的序幕。

Meta 與洛克希德-馬丁公司(Lockheed Martin)和博思艾倫公司(Booz Allen)等公司合作,於 11 月將其 Llama 人工智慧模型提供給國防機構。同月,Anthropic 與 Palantir 合作。12 月,OpenAI 與 Anduril 達成了類似的協議。更低調的是,Cohere 也一直在與 Palantir 合作部署其模型。

隨著生成式人工智慧在五角大廈的實用性得到證明,它可能會推動矽谷放寬人工智慧使用政策,允許更多的軍事應用。

ADVERTISEMENT

普拉姆說:「透過不同的情境進行遊戲是生成式人工智慧可以提供幫助的地方。它可以讓你利用我們的指揮官所擁有的各種工具,還可以創造性地思考不同的應對方案,以及在需要應對潛在威脅或一系列威脅的環境中可能出現的取捨。」

目前還不清楚五角大廈在這項工作中使用了誰的技術;在殺傷鏈中使用生成式人工智慧(即使是在早期規劃階段)似乎違反了幾家領先模型開發商的使用政策。例如,Anthropic 的政策禁止使用其模型來生產或修改「旨在對人類生命造成傷害或損失的系統」。

Anthropic 介紹了其執行長達里奧·阿莫代(Dario Amodei)最近接受《金融時報》的採訪,他在採訪中為自己的軍事工作進行了辯護:

ADVERTISEMENT

「我們永遠不應該在國防和情報領域使用人工智慧的立場對我來說毫無意義。而那種認為我們應該瘋狂地使用人工智慧製造任何我們想要的東西——甚至包括末日武器——的觀點顯然也同樣瘋狂。我們試圖尋求中間立場,以負責任的方式行事。」

OpenAI、Meta 和 Cohere 沒有回應置評請求。

近幾個月來,一場圍繞是否真的應該允許人工智慧武器做出生死攸關的決定的國防科技辯論已經爆發。

Anduril 首席執行長帕爾默·盧基(Palmer Luckey)最近在 X 上指出,美國軍方長期以來一直在購買和使用自主武器系統,例如 CIWS 砲塔。

「國防部購買和使用自主武器系統已有幾十年的歷史。」Luckey 說:「它們的使用(和出口)是被充分理解、嚴格定義的,並且受到明確的規則監管,完全不是自願的。」

但當被問及五角大廈是否會購買和操作完全自主的武器時,普拉姆原則上拒絕了這一想法。

普拉姆說:「簡而言之,不會。從可靠性和道德的角度來看,我們在決定使用武力時始終需要人類的參與,這也包括我們的武器系統。」

「自主」一詞有些含糊不清,引發了科技行業關於自動系統(如人工智慧編碼代理、自動駕駛汽車或自動發射武器)何時才能真正獨立的爭論。

普拉姆說,自動系統獨立做出生死決定的想法「過於二元化」,現實沒有那麼「科幻」。相反,她認為五角大廈對人工智慧系統的使用實際上是人類與機器之間的合作,高層領導在整個過程中都在積極決策。「人們往往會認為,在某個地方有機器人,然後 gonculator(一種虛構的自主機器)會吐出一張紙,而人類只是在方框裡打勾。這不是人機合作的方式,也不是使用這類人工智慧系統的有效方法。」

與軍方的合作並不總是能得到矽谷員工的歡迎。去年,亞馬遜和 Google 的數十名員工因抗議公司與以色列的軍事合約(代號為「Project Nimbus」的雲端交易)而被解僱和逮捕。

相比之下,人工智慧界的反應卻相當平淡。一些人工智慧研究人員,如 Anthropic 公司的埃文·胡賓格(Evan Hubinger)說,在軍隊中使用人工智慧是不可避免的,關鍵是要直接與軍方合作,以確保他們能正確地使用人工智慧。

「如果認真對待人工智慧帶來的災難性風險,那麼美國政府就是一個極其重要的參與方,而試圖阻止美國政府使用人工智慧並不是一個可行的策略,」Hubinger 在 11 月的線上論壇 LessWrong 上發帖說。「僅僅關注災難性風險是不夠的,你還必須防止政府可能濫用你的模型的任何方式」。

ADVERTISEMENT