美國網路安全暨基礎架構安全管理署(CISA)與英國國家網路安全中心(NCSC)共同釋出首個針對全球人工智慧 制定安全標準《安全AI系統開發指引》 (Guidelines for Secure AI System Development),標榜從設計階段提高系統安全,藉此避免可能的資安 風險發生。
《安全AI系統開發指引》由美國、英國、法國、德國、日本、韓國、新加坡在內18個國家,以及微軟、Google、OpenAI、Anthropic、Scale AI等業者參與制訂,強調提供人工智慧技術開發時的建議,並且推動人工智慧系統應遵循安全原則。
此安全標準將安全性、透明度與使用權責列為優先考量項目,同時也說明建立安全設計規範的組織架構重要性。
除了對應所有類型的人工智慧系統,此安全標準也涵蓋透過外部託管模型或API資源串接打造的人工智慧,並且針對設計、開發、佈署,以及維護運作過程提出可能的安全風險,藉此協助研究人員、開發者或管理人員進行決策,進而降低整體安全風險。
而美國政府先前也已經在今年7月取得多數推動人工智慧技術發展的業者承諾,並且在10月簽署首份人工智慧行政命令,由美國國土安全部制訂人工智慧安全標準,藉此避免人工智慧造成更大風險影響。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》