隨著AI模型的自主性與程式碼破解能力突破臨界點,開發商開始對自家工具可能引發的災難感到擔憂。根據Axios網站取得消息指稱,OpenAI 正在準備推出一款具備「進階網路 安全能力」的新產品,但出於安全考量,該產品初期將僅限於提供給少數合作夥伴使用。無獨有偶,OpenAI的競爭對手Anthropic日前也提出具備強大防駭能力的全新模型「Claude Mythos Preview」,採取了相似的限制釋出策略。
當AI從單純的「寫程式輔助工具」,進化成能夠自主尋找漏洞,甚至編寫漏洞攻擊程式的駭客 武器時,這些模型開發商現在面臨的最大課題,已經不是如何讓AI變聰明,而是如何避免它們落入壞人手中。
OpenAI的資安 防禦網:從「受信任存取」到全新專屬產品
根據知情人士透露,OpenAI目前正在進行一款具備進階資安能力新產品的最終收尾工作,並且計畫先向一小部分的特定合作夥伴開放。
事實上,OpenAI針對資安領域的「特供版」佈局早有跡可循。在今年2月推出其具備最強大網路安全推理能力的模型「GPT-5.3-Codex」之後,OpenAI便啟動了一項名為「網路安全受信任存取」 (Trusted Access for Cyber)的試驗計畫。
根據當時發布的官方部落格指出,參與該邀請制計畫的組織,將獲准存取「具備更強大網路安全能力或權限更寬鬆的模型」,以加速其合法的防禦性工作。為了鼓勵防禦性研究,OpenAI當時甚至承諾提供高達1000萬美元的API額度給參與者。
不過,Axios網站也強調,這次傳出即將發布的資安專屬產品,與OpenAI另一款即將推出的神祕模型「Spud」是不同的項目。目前尚不清楚「Spud」具備何種等級的網路安全能力,以及OpenAI如何將其定位。
Anthropic「Claude Mythos」開了第一槍:AI界的漏洞通報機制?
在OpenAI採取行動的同時,其競爭對手Anthropic也在本週二宣布,由於擔心其最新模型「Claude Mythos Preview」具備過於強大的駭客能力,將把該模型的存取權限,嚴格限制在一小群經過挑選的科技與網路安全公司內。Anthropic也成為業界第一家針對全新前沿模型 (Frontier model)採取此類預防性措施的AI企業。
SANS研究所首席AI長Rob T. Lee指出,這種錯開或限制發布全新AI模型的方式,看起來非常像網路安全供應商目前處理軟體安全漏洞揭露的標準流程。「這與我們幾十年來圍繞『負責任的漏洞揭露』所進行辯論如出一轍」。Rob T. Lee說明。
資安專家的殘酷警告:潘朵拉的盒子已經打開
儘管OpenAI與Anthropic試圖透過「限制發布」來控制風險,但包含前政府官員與頂尖安全負責人在內的專家們,在過去一年中不斷發出警告:如果這些AI模型落入惡意行為者手中,總有一天可能會自主癱瘓水利設施、電網或金融系統。
更殘酷的現實是,這種能力似乎「已經到來」。
• 能力已無法收回:SANS研究所的Rob T. Lee坦言:「你無法阻止模型進行程式碼列舉或在舊程式碼庫中尋找缺陷,這種能力現在就已經存在了」。
• 開源社群的追趕:Palo Alto Networks首席安全情報長Wendi Whitmore預測,只要再過幾週或幾個月,市場上 (包含開源社群)就會出現具備類似能力的全新模型。
• 業界的警鐘:CrowdStrike反擊對手行動資深副總裁Adam Meyers直言,Anthropic的Mythos模型所展現出的能力,對整個資安產業來說就是一記「響亮的警鐘」。
安全公司Aisle執行長Stanislav Fort則分析指出,如果企業擔心的是AI模型「編寫全新漏洞攻擊程式」的能力,那麼限制全新前沿模型的推出會「更有意義」;但如果只是擔心AI用來「尋找現有Bug」,那麼限制發布的意義就不大。Aisle的研究人員甚至發現,目前市面上廣泛可用的AI模型,其實已經能夠找出Claude Mythos所發現的部分漏洞。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

討論區