OpenAI 稍早更新其人工智慧安全原則,其中說明即使公司領導層認為其人工智慧 技術足夠安全,董事會 依然有足夠權限限制其推行計畫。
在新版安全原則中,包含現任執行長Sam Altman在內高層帶領推動的人工智慧技術,只要董事會認為有潛在風險時,將有權限制或推翻技術推行計畫。
這樣的作法,凸顯董事會仍有足夠權限規範OpenAI推行的人工智慧技術發展走向,避免產生潛在安全風險,並且造成災難性的影響結果,例如導致數千億美元經濟損失,或是讓眾人生活受到傷害等。
目前OpenAI分別透過「預備」 (Preparedness)、「安全系統」 (safety systems)與「最高準則」 (Superalignment)三個獨立團隊監督其人工智慧技術發展,其中包含評估人工智慧在不同領域是否造成危害,以及確認技術是否有安全漏洞,另外也將提防未來出現不可控管的人工智慧技術。
而OpenAI也呼籲其他業者能以相同安全原則評估人工智慧潛在風險,將人工智慧依照不同類型區分為低、中、高,以及關鍵風險,並且判斷人工智慧技術實際應用效益。在新版安全原則之下,OpenAI表示僅會推出風險評估在低、中的人工智慧技術應用模型。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 POCO F8 Ultra開箱!驚豔Bose低音砲 實測鏡頭拍峇里島日出、捕捉厭世猴群
📢 LINE吃200GB空間!刪1群組「全當機」靠它救回 他曝安心刪除方法
📢 iPhone用戶小心!他「打FaceTime」慘交5700元電話費 改1設定防中招
📢 iPhone 18系列「史上最難選」!打破賈伯斯策略 選機方式大變動
📢 DJI Neo 2開箱!實測新手操作 空拍日出、環繞、跟拍1秒上手
📢 懶人包/LINE帳號換機方法一文看懂!開始前檢查3件事、1錯誤害資料救不回
