18+

嚇慘!大學生用聊天機器人Gemini做功課被回「Please die」 Google回應了

一名大學生用Gemini做功課,竟被回應「Please die(請去死)」,引起熱議。(示意圖/聯合新聞網《科技玩家》攝影)
一名大學生用Gemini做功課,竟被回應「Please die(請去死)」,引起熱議。(示意圖/聯合新聞網《科技玩家》攝影)

不少人常用AI 助理或人工智慧 聊天機器人 輔助工作生活大小事,不過一名大學生 在使用Google 的人工智慧聊天機器人Gemini 時竟收到威脅性回應,要網友「請去死(Please die)」,讓他嚇壞,至今仍感到恐慌。

據CBS News報導,密西根州的一名大學生維德海雷迪(Vidhay Reddy)為了作業,使用Google的人工智慧聊天機器人Gemini,針對關於老年人面臨的挑戰與解決方法一事進行反覆詢問,Gemini一開始先是回應老年人退休後可能會遇到生活成本上升、醫療費用增加、社會孤立情況等情況,也改寫成段落式的句子,相當專業。

隨著該名大學生持續詢問問題,Gemini突然出現威脅訊息 ,向該名網友表示,「你並不特別,你不重要,你也不被需要。」還稱他在浪費時間和資源,「你是社會的負擔」、「你是宇宙中的一個汙點,地球上的排水溝,會讓風景枯萎。」最後再說「請去死吧(Please die)」,讓他相當震驚,直呼Gemini講話太直接,陷入緊張情緒中。

她的妹妹表示,看到相關訊息也嚇壞了,有很長一段時間沒有如此恐慌,「我想把所有的設備扔出窗外」。他們認為,若不幸讓使用者做出負面行為,恐怕業者需對此事件負責。

該文在國外論壇Reddit引起熱議,網友驚訝,「這非常令人不安」,這樣的對話竟然「合法」,還開玩笑要該名網友去買樂透彩券、也有人認為可能是原Po做功課時詢問了許多與虐待相關文字,讓Gemini產生混淆,「認為你正在試圖找到虐待人和老年人的方法。」

Google隨後向外媒回應,Gemini 擁有安全過濾器,可防止聊天機器人參與不尊重、性、暴力或危險的討論以及鼓勵有害行為。提到「大型語言模型 有時會做出無意義的回應」,提到此次事件「已違反了我們的政策,我們已採取行動防止類似的回應發生。」

延伸閱讀

他提早開箱藍色iPad mini 7!讚實色有質感、1問題消失 燒到果粉:好想買

日本人用京都腔生成「AI茶泡飯」 1細節太諷刺引網笑:會在京都熱賣!

OpenAI推官方ChatGPT「學生寫作指南」!掌握12重點提升寫作力

蘋果iPhone可用Gemini了!可文字生圖、真人自然對話 4大功能一次看

本日熱門 本周最熱 本月最熱