科技倫理警鐘!包含蘋果共同創辦人、英國哈利王子等人連署要求禁止開發「超級智慧」AI
在AI技術快速發展的浪潮中,一股反思的力量正在集結。包括蘋果共同創辦人、有「科技頑童」稱號的Steve Wozniak,以及包含英國哈利王子在內800多位各界名人,近日聯署聲明要求禁止可能導致「超級智慧」的AI研究,直到科學界能證明其發展「安全且可控」。
跨領域的憂慮共識
這份由未來生命研究所 (Future of Life Institute)發起的聲明,獲得來自不同領域和政治光譜的知名人士支持,連署者包括AI研究先驅、諾貝爾獎得主Geoffrey Hinton,以及前川普顧問Steve Bannon、前美軍參謀長聯席會議主席Mike Mullen、音樂人Will.i.am,另外也包含英國哈利王子、蘋果共同創辦人Steve Wozniak等人。
而這種跨界的聯合署名,更凸顯對AI發展的擔憂已超越傳統黨派和專業界限。
發展速度與監管落差的危機
未來生命研究所執行主任Anthony Aguirre向NBC新聞指出:「在某種程度上,這條道路是由AI公司、創辦人和驅動它們的經濟系統為我們選擇的,但幾乎沒有人問過其他人:『這是我們想要的嗎?』」
該機構警告,AI的發展速度已超出公眾理解能力,監管措施遠遠跟不上技術進步的腳步。
從AGI到超級智慧的爭議
人工通用智慧 (AGI)是指機器能像人類一樣推理和執行任務的能力,而超級智慧則意味著AI甚至能超越人類專家。儘管Meta執行長Mark Zuckberg柏宣稱超級智慧「近在眼前」,「X」執行長Elon Musk表示它「正在實時發生」,但現有AI仍僅能處理有限任務,甚至在自動駕駛等複雜應用場景中屢屢受挫。
業界領袖缺席與不同聲音
值得注意的是,這些大力推動AI發展的科技巨頭領導人,以及他們公司的重要人物,均未參與此次連署。OpenAI執行長Sam Altman曾預測最晚在2030年實現超級智能,但同時也對其潛在風險提出警告。
這並非首次對AI發展速度的警示。上月已有包括10位諾貝爾獎得主在內的200多位研究人員和公職人員發布緊急呼籲,要求為AI風險劃定「紅線」,不過他們關注的是已開始顯現的危機,如大規模失業、氣候變遷和人權侵害等問題。
隨著AI投資持續火熱,例如OpenAI等公司正投入數十億美元建設資料中心,Meta也積極投入發展「超級智慧」,這場關於科技發展與倫理平衡的辯論,將持續塑造人類的未來。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 看演唱會「手機租借」超夯!拍照神器日租價格曝、4品牌業者最推它
📢 便宜資費懶人包/4G吃到飽真的變貴!5G攻399元更划算
📢 三星S26U開箱!實測智慧防窺、水平鎖定攝影6大功能 吃過的青菜神還原
📢 恭喜微軟用戶!Windows更新強制重開機氣炸 終於可無限期暫停更新
📢 512GB不夠用「是廠商責任」!外媒列5點喊話:1TB應成筆電標配
📢 愛瘋狂打錯字把「我」打成「喔」!4招解決:真的變好打