![](https://pgw.udn.com.tw/gw/photo.php?u=https://uc.udn.com.tw/photo/author/photo/966.jpg&x=&y=&sw=&sh=&exp=3600&w=100)
除了日前由Elon Musk 、Steve Wozniak等人共同呼籲科技業 者應至少暫緩半年投入人工智慧 技術研發,研究人工智慧安全性的非營利組織Center for AI Safety (CAIS)稍早也公布由諸多人工智慧技術專家簽署聲明,呼籲降低人工智慧可能帶來毀滅風險將是當前首要任務。
在此簽署聲明中,更將人工智慧可能產生風險與流行疾病、核子戰爭畫上等號,藉此強調此技術產生影響的嚴重性。
另外,參與簽署聲明的人物,分別包含OpenAI 共同創辦人Ilya Sutskever、John Schulman,以及執行長Sam Altman,另外也包含多名OpenAI研究人員,而包含DeepMind創辦人Shane Legg、執行長Demis Hassabis與多名DeepMind研究人員,同時也包含多名大學研究相關領域教授。
而在聲明內容裡,則是將人工智慧可能產生風險分成8大類型,分別包含將人工智慧作為武器、散播不實內容、影響他人及社會價值,以及包含造成人類退化、失控,或是被掌控在特定人士手中等情況,希望能透過更多人建立共識,建立更安全的人工智慧應用發展。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 蘋果iPad mini 7開箱!實測配PS5手把變遊戲主機、寫筆記 8.3吋螢幕超剛好
📢 任天堂Switch 2台灣快開賣?網揪「這處有檔期」時間曝光:我先空出來了
📢 北捷常客優惠縮水!3月1日起7折變85折新規則曝 TPASS 2.0還有額外回饋
📢 2月4G、5G便宜資費懶人包/4G不限速吃到飽免500!5G上網優惠只要399
📢 ChatGPT Search全面開放免費用!搜尋方法教學 3大招做預設搜尋引擎
📢 2025年最新!日本家電折價券最高18%折扣 7家電器店一次收藏