18+

Meta公布「Frontier AI Framework」白皮書 強調在人工智慧系統加上安全防護

Meta 稍早公布名為「Frontier AI Framework」 (前沿人工智慧 框架)的白皮書,其中定義高風險 (high-risk)及重大風險 (critical-risk)兩種人工智慧系統,兩種系統都可能被用於網路安全攻擊,或是用於化學、生物武器攻擊相關領域,差別在於後者將造成無法控制的嚴重後果,而前者雖然會造成一定威脅,但仍具備一定可控性。

而Meta表示,其評估人工智慧系統風險程度時,並非僅透過單一客觀指標,而是會統整內部研究人員意見與外部研究人員看法,並且由高階主管審核決定。同時,Meta也表示當前其實尚未有足以準確衡量人工智慧系統風險的量化依據,因此對於當前人工智慧系統可能產生風險,主要還是透過當前研究進行評估。

至於對於被列為高風險的人工智慧系統,Meta當前作法會以限制內部使用權限,同時在未能實施足夠的防護措施前,將不會對外開放使用。針對被定義為重大風險的人工智慧系統,則會採用特殊安全防護 措施,避免系統造成安全影響,一旦出現安全問題時,則會暫停所有開發工作,直至確保安全無慮。

在此之前,Meta曾承諾將打造能執行任何任務、工作的人工智慧系統,並且以通用人工智慧系統形式向大眾開放使用,但也連帶引發不少市場看法擔憂,畢竟Meta提供的Llama大型自然語言模型以開源形式提供使用,同時累積超過數億次的下載使用量,更被用於開發軍事用途人工智慧系統,因此可能引發更大風險。

此次公布「Frontier AI Framework」白皮書,顯然是為了回應市場對於Meta的人工智慧系統發展策略,並且強調在人工智慧加上安全防護設計的重要性。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱