
OpenAI 去年成立用於控管人工智慧 安全的Superalignment團隊,其負責人Jan Reike稍早宣布離開OpenAI,並且透露與OpenAI內部領導層意見產生分歧,因此最終選擇離開。
Jan Reike先前強調,建構超越人類掌控的超級人工智慧會是相當危險作法,因此OpenAI有很大責任肩負打造更安全的人工智慧技術。而此次宣布因與內部領導層意見分歧,因此決定離開消息,則是凸顯OpenAI或許將更多重心放在技術成長,卻可能忽略相應的安全問題。
Superalignment團隊原先是由Jan Reike與OpenAI共同創辦人暨首席科學家Ilya Sutskever帶領,但在Ilya Sutskever在日前確定離開,此次再加上Jan Reike宣布離開消息,或許代表OpenAI接下來對於人工智慧的安全政策可能會有所改變。
而OpenAI執行長 Sam Altman在後續發文,除了表示對於Jan Reike的離開感到遺憾,但也透露將在未來幾天內以較長內容詮釋OpenAI日後在技術安全的作法。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
📌 數位新聞這裡看!
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 「找車位神器」3秒搜出停車格!5縣市可用 駕駛實測嘆:相見恨晚
📢網紅「小周牙醫」歧視同志言論挨轟!道歉被網抓包IG、YT秒做1事:沒誠意
📢 Switch 2台北體驗會7/5登場!抽選制、超詳細報名規則曝
📢 ASUS VivoWatch 6 AERO智慧手環開箱!指尖量心電圖 睡眠追蹤曝「9成全淺眠」
📢 YouTube會員台灣便宜雙人方案來了!價格比印度貴近4倍 規則一次看
📢 獨/等到iPhone嗶進站!蘋果iOS18.4開放台灣NFC交易 悠遊卡公司回應了