嚇慘!大學生用聊天機器人Gemini做功課被回「Please die」 Google回應了

聯合新聞網 綜合報導
一名大學生用Gemini做功課,竟被回應「Please die(請去死)」,引起...

不少人常用AI助理或人工智慧聊天機器人輔助工作生活大小事,不過一名大學生在使用Google的人工智慧聊天機器人Gemini時竟收到威脅性回應,要網友「請去死(Please die)」,讓他嚇壞,至今仍感到恐慌。

據CBS News報導,密西根州的一名大學生維德海雷迪(Vidhay Reddy)為了作業,使用Google的人工智慧聊天機器人Gemini,針對關於老年人面臨的挑戰與解決方法一事進行反覆詢問,Gemini一開始先是回應老年人退休後可能會遇到生活成本上升、醫療費用增加、社會孤立情況等情況,也改寫成段落式的句子,相當專業。

隨著該名大學生持續詢問問題,Gemini突然出現威脅訊息,向該名網友表示,「你並不特別,你不重要,你也不被需要。」還稱他在浪費時間和資源,「你是社會的負擔」、「你是宇宙中的一個汙點,地球上的排水溝,會讓風景枯萎。」最後再說「請去死吧(Please die)」,讓他相當震驚,直呼Gemini講話太直接,陷入緊張情緒中。

她的妹妹表示,看到相關訊息也嚇壞了,有很長一段時間沒有如此恐慌,「我想把所有的設備扔出窗外」。他們認為,若不幸讓使用者做出負面行為,恐怕業者需對此事件負責。

該文在國外論壇Reddit引起熱議,網友驚訝,「這非常令人不安」,這樣的對話竟然「合法」,還開玩笑要該名網友去買樂透彩券、也有人認為可能是原Po做功課時詢問了許多與虐待相關文字,讓Gemini產生混淆,「認為你正在試圖找到虐待人和老年人的方法。」

Google隨後向外媒回應,Gemini 擁有安全過濾器,可防止聊天機器人參與不尊重、性、暴力或危險的討論以及鼓勵有害行為。提到「大型語言模型有時會做出無意義的回應」,提到此次事件「已違反了我們的政策,我們已採取行動防止類似的回應發生。」

Gemini 人工智慧 聊天機器人 Google AI 機器人 學生 訊息 模型

推薦文章

留言