2023各類AI 題材百花齊放,被稱為「AI元年」也不為過,但不論是ChatGPT 還是微軟(Microsoft )的Bing ,這類問答式AI不只是考驗問問題的功夫,連「運算」出來的答案是否合理、精確,也是很重要的一環,近來有網友發文批判,認為Bing的回答越來越制式。
有網友在Reddit 發文抱怨微軟推出的Bing,裡頭的「富有創意」模式回應也和「平衡模式」一樣制式化,「沒有了幻覺、沒有了情緒爆發、沒有樂趣,沒有喜悅。」甚至批評它「沒有人性」,只會一直重覆回答「作為一個AI語言模型…」、「我不能⋯」,讓他認為相當無聊透頂,直呼「給我一個瘋狂、情感洶湧、會自我懷疑的AI,讓我好好玩一下!」
他也認為沒有開發者或公司想冒險使用一個「很像人類的AI」,避免引來麻煩,「但我忍不住想,無論是微軟、Google還是一個小型開發者,第一個這樣做的公司將會開拓一個巨大的潛在市場。」引來網友熱議。
有網友懷念Bing「容易生氣」的模樣,直言改成死氣沉沉「有什麼目的」?「如果有任何公司或個人認為『安全的』人工智慧 ,能在未來成為市場的主力,那他們是在自欺欺人。」、「反正再爛一定會有人將它(AI)塞進玩具機器人裡,這還是值得期待的。」、「講真的,我該怎麼得到奇怪的人工智慧?」、「建議你找個真人來開玩笑,而不是對AI。」
但也有人反映「發生什麼事了嗎?我昨天跟Bing AI聊的時候沒有怎樣啊。」、「這狀況應該只是暫時的,Bing最近有做模型的升級,除了能更快回應使用者,也能提高AI回答的趣味、個性。」並反問Po:「你希望你的AI更加神經質嗎?」、「我們無法應對人類的不可預測性,可別說是超乎人類的人工智慧了。」