18+

OpenAI更新安全原則 讓董事會有足夠權限否決推行具風險的人工智慧技術

OpenAI 稍早更新其人工智慧安全原則,其中說明即使公司領導層認為其人工智慧 技術足夠安全,董事會 依然有足夠權限限制其推行計畫。

在新版安全原則中,包含現任執行長Sam Altman在內高層帶領推動的人工智慧技術,只要董事會認為有潛在風險時,將有權限制或推翻技術推行計畫。

這樣的作法,凸顯董事會仍有足夠權限規範OpenAI推行的人工智慧技術發展走向,避免產生潛在安全風險,並且造成災難性的影響結果,例如導致數千億美元經濟損失,或是讓眾人生活受到傷害等。

目前OpenAI分別透過「預備」 (Preparedness)、「安全系統」 (safety systems)與「最高準則」 (Superalignment)三個獨立團隊監督其人工智慧技術發展,其中包含評估人工智慧在不同領域是否造成危害,以及確認技術是否有安全漏洞,另外也將提防未來出現不可控管的人工智慧技術。

而OpenAI也呼籲其他業者能以相同安全原則評估人工智慧潛在風險,將人工智慧依照不同類型區分為低、中、高,以及關鍵風險,並且判斷人工智慧技術實際應用效益。在新版安全原則之下,OpenAI表示僅會推出風險評估在低、中的人工智慧技術應用模型。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱