
OpenAI 稍早宣布推出名為「安全評估中心」 (safety evaluations hub)的網頁 ,藉此分享其人工智慧 模型 產生幻覺機率等資訊,同時也說明其人工智慧模型是否會產生有害內容,或是有無可能產生違法資訊等。
而提供此網頁資源,OpenAI表示是為了提升其服務的透明度,並且對外說明其模型運作時所作的安全防護 ,同時也會持續更新人工智慧模型相關安全防護措施。
同時,OpenAI表示希望透過此作法讓外部人員更容易理解其在人工智慧模型安全的投入,並且會隨著時間改變等因素進行調整,確保其服務被使用時的安全性 ,更強調能透過社群互動方式提高公司對外溝通效率。
但也有看法認為,OpenAI這樣的作法可能仍會選擇隱瞞部分問題或隱憂,畢竟網頁公布內容僅為帳面資訊,不一定能反應真實情況。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
📌 數位新聞這裡看!
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 影/iPhone 17 Pro Max實機曝光!機身比16 Pro厚 相機模組神巨大
📢Sony WH-1000XM6藍牙耳機開箱!摺疊回歸、降噪驚豔「讓世界變安靜」
📢 任天堂Switch 2台灣7月10日上市開賣!試玩台北體驗會就能買 價格出爐
📢 注意!華碩路由器全球逾9千台遭入侵「重開機沒用」 用戶快做1事自保
📢 YouTube會員台灣便宜雙人方案來了!價格比印度貴近4倍 規則一次看
📢 你是「居然人」或「竟然人」?LINE都市傳說瘋傳 網搜對話狂讚:真的準