近期透露創立一家人工智慧 新創,聚焦如何讓人工智慧能比擬人腦 對於空間內所有細節的預判及洞察能力之後,「人工智慧教母」李飛飛近期在其個人「X」頁面分享其與史丹佛大學人本人工智慧研究中心 (HAI)共同主任教授John Etchemendy合著論文,其中主張大型自然語言模型 縱使有再多參數支撐,依然無法像人腦般能對事物有所感知。
換句話說,目前被視為人工智慧主流發展技術的大型自然語言模型,依然無法像人腦能有主觀感知能力,僅能依照學習訓練結果完成執行任務,但實際上並非以經驗感知方式做出判斷。
例如超級電腦深藍能以人工智慧運算方式在棋賽競賽擊敗人類棋王,但如果當下所處環境發生火災,深藍不會因為火災發生而停止下棋,但人類會因為其他因素產生不同感知判斷。
從其他角度來看,人類在下棋過程可能會透過其他取巧、心理等方式推估對手可能採取進攻策略,或是設法讓對手誤判自己下棋策略,而超級電腦主要還是會以過往學習棋路、分析可行下棋方式,與人腦思考方式可能會明顯不同。
李飛飛更強調,人腦在思考「我餓了」的背後可能會伴隨一連串的生理及心理反應,而對超級電腦而言則無法擁有此類主觀感受與經驗,因此難以做出與人類相同的決策反應。
在李飛飛的看法裡,當前人工智慧技術主流採用的大型自然語言模型,基礎建立在藉由學習人類自然語言表達內容,進而從中更理解使用者以相同自然語言輸入指令、說明內容,藉此做出更正確的反應,但實際上依然是以過往人工智慧方式做出反應,只是整體反應速度變得更快,更能做出正確、符合預期的解答,甚至能提供更豐富、完整參考內容,不過要能跟上人腦反應表現,依然存在相當大的差距。
因此在李飛飛創立的人工智慧新創,目標便是計畫打造能仿照人腦,可對於空間內所有細節進行預判及洞察的人工智慧系統,藉此讓人工智慧技術能有更大發展突破。
不過,許多市場看法認為,讓人工智慧獲得「感知能力」,其實相當危險,其中可能因為人工智慧產生「私慾」,進而產生對人類不利的發展局面,甚至日前有也看法認為OpenAI 內部已經創造具感知能力的人工智慧技術,或許將帶來更嚴重的影響。
Is AI sentient? My friend and colleague Prof. John Etchemendy, a renowned professor and co-Director of @StanfordHAI , just co-authored this piece to debunk the claim that today’s LLMs are sentient @TIME https://t.co/3fAsQ8GVli
— Fei-Fei Li (@drfeifei) May 23, 2024
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》