除了日前由Elon Musk 、Steve Wozniak等人共同呼籲科技業 者應至少暫緩半年投入人工智慧 技術研發,研究人工智慧安全性的非營利組織Center for AI Safety (CAIS)稍早也公布由諸多人工智慧技術專家簽署聲明,呼籲降低人工智慧可能帶來毀滅風險將是當前首要任務。
在此簽署聲明中,更將人工智慧可能產生風險與流行疾病、核子戰爭畫上等號,藉此強調此技術產生影響的嚴重性。
另外,參與簽署聲明的人物,分別包含OpenAI 共同創辦人Ilya Sutskever、John Schulman,以及執行長Sam Altman,另外也包含多名OpenAI研究人員,而包含DeepMind創辦人Shane Legg、執行長Demis Hassabis與多名DeepMind研究人員,同時也包含多名大學研究相關領域教授。
而在聲明內容裡,則是將人工智慧可能產生風險分成8大類型,分別包含將人工智慧作為武器、散播不實內容、影響他人及社會價值,以及包含造成人類退化、失控,或是被掌控在特定人士手中等情況,希望能透過更多人建立共識,建立更安全的人工智慧應用發展。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
📌 數位新聞搶鮮看!
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 Pixel 10a開箱親民價!平面鏡頭 實測拍照、AI生圖順手、還能用AirDrop
📢 蘋果「超強新品」MacBook Neo來了!平價筆電免2萬 4色搶美又輕巧
📢 蘋果最新舊換新Trade in價格出爐!iPhone 16更值錢 13款手機跌價
📢 蘋果iPhone 17e與iPhone 17差在哪?1表全解析 補足MagSafe
📢 LINE免費貼圖!初音未來超可愛、這款「狗沒拿賽」諧音哏滿滿
📢 M4 iPad Air和M3差在哪裡?一圖了解高CP值 果粉在意「萬年60Hz」

討論區