在AI技術快速發展的浪潮中,一股反思的力量正在集結。包括蘋果共同創辦人、有「科技頑童」稱號的Steve Wozniak,以及包含英國哈利王子在內800多位各界名人,近日聯署聲明要求禁止可能導致「超級智慧」的AI研究,直到科學界能證明其發展「安全且可控」。
跨領域的憂慮共識
這份由未來生命研究所 (Future of Life Institute)發起的聲明,獲得來自不同領域和政治光譜的知名人士支持,連署者包括AI研究先驅、諾貝爾獎得主Geoffrey Hinton,以及前川普顧問Steve Bannon、前美軍參謀長聯席會議主席Mike Mullen、音樂人Will.i.am,另外也包含英國哈利王子、蘋果共同創辦人Steve Wozniak等人。
而這種跨界的聯合署名,更凸顯對AI發展的擔憂已超越傳統黨派和專業界限。
AI companies are racing to build superintelligent AI, despite its many risks.
— Future of Life Institute (@FLI_org)October 22, 2025
Let's take our future back.
📝 Sign the Superintelligence Statement and join the growing call to ban the reckless development of superintelligence, until it can be made safely.#KeepTheFutureHuman pic.twitter.com/Hx8WBC1byI
發展速度與監管落差的危機
未來生命研究所執行主任Anthony Aguirre向NBC新聞指出:「在某種程度上,這條道路是由AI公司、創辦人和驅動它們的經濟系統為我們選擇的,但幾乎沒有人問過其他人:『這是我們想要的嗎?』」
該機構警告,AI的發展速度已超出公眾理解能力,監管措施遠遠跟不上技術進步的腳步。
從AGI到超級智慧的爭議
人工通用智慧 (AGI)是指機器能像人類一樣推理和執行任務的能力,而超級智慧則意味著AI甚至能超越人類專家。儘管Meta執行長Mark Zuckberg柏宣稱超級智慧「近在眼前」,「X」執行長Elon Musk表示它「正在實時發生」,但現有AI仍僅能處理有限任務,甚至在自動駕駛等複雜應用場景中屢屢受挫。
業界領袖缺席與不同聲音
值得注意的是,這些大力推動AI發展的科技巨頭領導人,以及他們公司的重要人物,均未參與此次連署。OpenAI 執行長Sam Altman曾預測最晚在2030年實現超級智能,但同時也對其潛在風險提出警告。
這並非首次對AI發展速度的警示。上月已有包括10位諾貝爾獎得主在內的200多位研究人員和公職人員發布緊急呼籲,要求為AI風險劃定「紅線」,不過他們關注的是已開始顯現的危機,如大規模失業、氣候變遷和人權侵害等問題。
隨著AI投資持續火熱,例如OpenAI等公司正投入數十億美元建設資料中心,Meta也積極投入發展「超級智慧」,這場關於科技發展與倫理平衡的辯論,將持續塑造人類的未來。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 POCO F8 Ultra開箱!驚豔Bose低音砲 實測鏡頭拍峇里島日出、捕捉厭世猴群
📢 LINE吃200GB空間!刪1群組「全當機」靠它救回 他曝安心刪除方法
📢 iPhone用戶小心!他「打FaceTime」慘交5700元電話費 改1設定防中招
📢 iPhone 18系列「史上最難選」!打破賈伯斯策略 選機方式大變動
📢 DJI Neo 2開箱!實測新手操作 空拍日出、環繞、跟拍1秒上手
📢 懶人包/LINE帳號換機方法一文看懂!開始前檢查3件事、1錯誤害資料救不回
