Intel宣布加入MLCommons AI安全性工作小組,將與產學界專家團隊合作建立人工智慧安全標準,藉此打造負責任的人工智慧開發指南。
作為創始成員之一,Intel將貢獻其專業知識,協助創建一個靈活的人工智慧安全標準平台,用於衡量人工智慧工具與模型的安全性,以及潛在風險因子。
隨著測試趨於成熟,工作小組制定的人工智慧安全標準,將成為社會看待人工智慧佈署與安全性的重要準則。
Intel企業副總裁暨資料中心AI解決方案總經理Deepak Patil表示,Intel致力於負責任地推動人工智慧發展,讓每個人都能平等、安全地使用人工智慧,並且將以全方位角度看待安全性問題,同時在硬體和軟體進行創新,致力於推動生態系建立值得信賴的人工智慧。
由於大型自然語言模型的普遍性,如何串聯整個生態系解決AI開發和布署的安全性問題至關重要,Deepak Patil表示樂於與業界共同定義新的流程、方法和標準,藉此提升日後無所不在的人工智慧應用。
為了降低強大技術帶來的社會性風險,並且負責任地訓練和布署大型自然語言模型與工具,工作小組將提供一個安全性評級系統,用以評估新型、快速演變的人工智慧技術所帶來風險。
工作小組初期重點將以史丹佛大學基礎模型研究中心及語言模型全面評估 (HELM)研究人員的成果為基礎,為大型自然語言模型制定安全標準。Intel將與AIS工作小組分享內部用於開發人工智慧模型和工具時嚴謹且與跨領域審查的流程,協助建立一套通用的最佳實踐和標準,以評估如何安全開發和布署利用大型自然語言模型的生成式人工智慧工具。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》