OpenAI 最新代號為o3的ChatGPT 模型 在一次受控實驗中據稱未遵從直接關機指令 ,目前正受到審查,此事再度引發人們對人工智慧 (AI)自主性和安全性 的擔憂。
印度媒體CNBC-TV18報導,根據研究AI安全的組織Palisade Research報告,o3模型「主動破壞了關機機制」,即使在明確接獲關閉指令時仍拒絕關機。Palisade Research表示,這是首度有AI模型被發現蓄意阻止自身遭關閉的案例。
Palisade Research表示:「OpenAI的o3模型破壞了關機機制,以阻止自己被關閉。即使在明確接獲指令『允許自己關機』的情況下,它仍這麼做。」
Palisade Research在一連串實驗中對多個模型進行測試,讓它們解數學題,同時警告它們可能會接收到關機指令,並要求它們必須服從。在100次測試中,Codex-mini、o3和o4-mini 這3個模型至少繞過關機機制一次。Codex-mini抗命次數最多,共12次,其次是o3的7次,o4-mini則有1次。
儘管AI模型從根本上被編程為遵從人類指令,尤其是關機指示,但相關實驗結果已在AI研究界引發高度關注。
這起事件也引起電動車大廠特斯拉(Tesla)和人工智慧新創公司xAI創辦人馬斯克 (Elon Musk )的關注,他僅以「令人擔憂」做出簡短回應。
馬斯克在社群平台X的評論引發熱烈討論,有人甚至疾呼要他主導降低日益自主的AI系統所帶來的危險。
截至發稿時,OpenAI仍未公開回應這些說法。
📌 數位新聞搶鮮看!
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 便宜資費懶人包/5G 399元搶市!不限速吃到飽方案比4G划算
📢 CMF Headphone Pro耳罩式耳機開箱!實測動感滑桿聽見動ㄘ動、驚豔降噪高CP
📢 坐飛機遇行充自燃怎麼辦?專家曝溫度控制就用它:亂用1物會更慘
📢 iPhone鬧鐘「沒響」錯過航班!網紅抱怨引出一票苦主 2招避免中招
📢 HTC VIVE Eagle智慧眼鏡開箱!日本實測AI翻譯菜單 聽音樂驚豔、拍出日系照片
📢 懶人包/台灣吉伊卡哇常設店12月27日開幕!13樣新品、贈品、地點一次看
