18+

OpenAI宣布與美軍達成機密佈署協議!畫下「三道紅線」、力挺Anthropic拒絕供應鏈風險標籤

AI重點

文章重點整理:

  • 重點一:OpenAI與美國國防部簽署機密協議,將AI系統佈署於軍方環境中。
  • 重點二:OpenAI明確提出三道紅線,禁止某些用途以確保安全。
  • 重點三:Sam Altman強烈反對將Anthropic標記為供應鏈風險,影響企業信譽。

就在美國 國防部與AI新創Anthropic 因「模型用途紅線」徹底撕破臉之際,OpenAI 於稍早宣布已與美國國防部達成協議,將其先進的AI系統佈署於軍方的機密環境中。令人意外的是,OpenAI強調他們並未撤除模型的安全護欄,甚至明確提出了「三道用途紅線」。同時,OpenAI執行長Sam Altman也公開喊話,強烈反對美國政府將Anthropic列為「供應鏈風險」 (Supply Chain Risk)。

OpenAI 的「三道紅線」與專屬機密架構

相較Anthropic先前堅守的兩項底線 (禁止大規模境內監控、禁止完全自主武器),OpenAI這次向國防部提出的條件更為具體,明確畫下了三道不可逾越的紅線:

• 禁止用於大規模境內監控。

• 禁止用於完全自主武器系統。

• 禁止用於高風險自動化決策系統 (例如類似「社會信用」機制的重大裁量系統)。

Anthropic先前之所以與國防部談判破裂,是因為軍方要求簽署同意「任何合法用途」 (any lawful use)的條款,並且不允許施加額外的技術限制;Anthropic認為這將導致企業完全失去對模型實際用途的掌控權。

那麼,OpenAI是如何讓軍方買單的?關鍵在於「佈署架構」。OpenAI採限定雲端佈署的策略,保留由OpenAI自行運行且持續更新的「安全堆疊」 (Safety Stack),並且安排具備國家安全許可 (Security Clearance)的工程師共同進行監督。透過這種技術與合約框架的雙重把關,OpenAI得以在進入國家機密體系的同時,實質保有對模型用途的控管能力。

Sam Altman出面緩頰:不該把自家人當敵人

OpenAI執行長Sam Altman隨後在社群平台X上透露了更多內幕。他表示,OpenAI原本只打算參與非機密級別的專案,甚至先前也曾拒絕過Anthropic這次接下的機密合約。

然而,本週局勢急轉直下,促使OpenAI加速與國防部的談判。Sam Altman指出,軍方在OpenAI提出的安全架構上展現了極大的「彈性」。他強調,這次倉促達成協議的初衷是為了「緩和局勢」,希望藉此建立一套標準,確保未來所有美國AI實驗室都能在相同的安全條件下為軍方提供服務。

更重要的是,OpenAI官方與Sam Altman本人都強烈抨擊國防部將Anthropic標記為「供應鏈風險」。他們認為,對一家美國本土的頂尖AI企業貼上這種通常用來對付「敵對國家」 (如中國、俄羅斯)的標籤,無論對美國AI產業還是國家安全來說,都是百害而無一利的作法。

耐人尋味的「戰爭部」與戰場上的現實

值得注意的是,在這波爭議中,無論是Anthropic還是OpenAI,在官方聲明中都刻意使用了「戰爭部」 (Department of War,DoW)這個在1947年改制前的歷史舊稱,而非現今通用的「國防部」 (DoD)。外界解讀,科技巨頭們此舉是為了強烈暗示並凸顯這些AI模型的佈署已經涉及「實質的軍事行動與殺傷性戰場用途」,而非單純的行政防禦事務。

而現實情況也確實如此。根據華爾街日報報導,就在美國總統川普宣布全面封殺Anthropic的數小時內,美軍在針對伊朗的空襲行動中,依然使用Anthropic的Claude AI技術。包含美國中央司令部在內的多個前線單位,均高度依賴Claude來進行情報分析、目標識別與戰場場景模擬。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

精華 FAQ

  • OpenAI提出了三道紅線,分別禁止用於大規模監控、完全自主武器系統及高風險自動化決策系統,以確保AI系統的安全與控制。

  • Sam Altman反對將Anthropic標記為供應鏈風險,認為這種做法不僅對企業形象有害,且可能對美國AI產業及國家安全造成負面影響。

  • OpenAI採取限定雲端佈署的策略,保留自運行的安全堆疊,並由具國家安全許可的工程師進行監督,以確保對模型用途的控管。

本日熱門 本周最熱 本月最熱