由於越來越多企業開始導入人工智慧 技術,但對於當前人工智慧技術模型是否有足夠安全性,多半還是提供者各各自表述為主,仍缺乏一定參考數據。而英國人工智慧安全研究所 (AI Safety Institute)近期釋出人工智慧模型安全評估平台「Inspect」,搭配其可擴充特性作為日後開發、評估人工智慧模型的參考依據。
「Inspect 」本質上為軟體資料庫,並且以資料集、求解器與評分器組成,藉此評估人工智慧模型包含核心知識、推論能力,以及自主管理能力,同時透過結果作為模型能力評估基準。
而「Inspect」採開源形式授權使用,可由使用者免費使用,或是透過其擴充特性增加更多評估功能,藉此對應更多人工智慧模型評估需求。
英國人工智慧安全研究所主席Ian Hogarth表示,期望透過開源方式吸引更多人工智慧社群做出貢獻,並且讓「Inspect」成為更能評估人工智慧模型能力的工具,同時也能藉由開源提高此項工具使用透明度,更可降低評估人工智慧模型能力的相關成本。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》