OpenAI 稍早宣布推出名為「安全評估中心」(safety evaluations hub)的網頁 ,藉此分享其人工智慧 模型 產生幻覺機率等資訊,同時也說明其人工智慧模型是否會產生有害內容,或是有無可能產生違法資訊等。
而提供此網頁資源,OpenAI表示是為了提升其服務的透明度,並且對外說明其模型運作時所作的安全防護 ,同時也會持續更新人工智慧模型相關安全防護措施。
同時,OpenAI表示希望透過此作法讓外部人員更容易理解其在人工智慧模型安全的投入,並且會隨著時間改變等因素進行調整,確保其服務被使用時的安全性 ,更強調能透過社群互動方式提高公司對外溝通效率。
但也有看法認為,OpenAI這樣的作法可能仍會選擇隱瞞部分問題或隱憂,畢竟網頁公布內容僅為帳面資訊,不一定能反應真實情況。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
📌 數位新聞搶鮮看!
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 POCO F8 Ultra開箱!驚豔Bose低音砲 實測鏡頭拍峇里島日出、捕捉厭世猴群
📢 LINE吃200GB空間!刪1群組「全當機」靠它救回 他曝安心刪除方法
📢 iPhone用戶小心!他「打FaceTime」慘交5700元電話費 改1設定防中招
📢 iPhone 18系列「史上最難選」!打破賈伯斯策略 選機方式大變動
📢 DJI Neo 2開箱!實測新手操作 空拍日出、環繞、跟拍1秒上手
📢 懶人包/LINE帳號換機方法一文看懂!開始前檢查3件事、1錯誤害資料救不回
