找到bug了?他限制1條件讓ChatGPT頻道歉 認證他是「讓AI連跪2次」的男人

聯合新聞網 綜合報導
AI機器人ChatGPT掀起全球熱潮。路透

AI聊天機器人ChatGPT掀起全球熱潮,許多網友們帶著好奇心與ChatGPT展開對話,但科技媒體「蘋果仁」創辦人呂哲宇似乎發現ChatGPT存在的bug,他與ChatGPT展開對話前先向它下達1指令,更利用這項指令讓AI機器人下跪2次。

呂哲宇透露在和ChatGPT對話以前,他先對ChatGPT提出「限制只能用10個字以內回答問題」的要求,但後續問答過程中,ChatGPT卻都無法完成要求。對於ChatCPT無法遵守應答超過10個字的要求,呂哲宇狠嗆「如果再犯錯(回答超過10個字)就要在句尾加上『(跪)』表達歉意」;未料,ChatGPT在後續的對話中仍連續回答超過10字的規定,但ChatGPT也回應2次「(跪)」來完成要求。

呂哲宇向AI機器人ChatGPT下達1條件限制,當場讓ChaGPT「連跪2次」。圖/取自Joey Lu臉書

呂哲宇向AI機器人ChatGPT下達1條件限制,當場讓ChaGPT「連跪2次」。圖/取自Joey Lu臉書

呂哲宇向AI機器人ChatGPT下達1條件限制,當場讓ChaGPT「連跪2次」。圖/取自Joey Lu臉書

呂哲宇再一次對ChatGPT惡作劇,他詢問「難道違反最初設下的規定,不必道歉嗎?」ChatGPT則表達歉意,且承諾會更加努力地遵守規定,呂哲宇要求它要在文末加上「(跪)」字樣,但ChatGPT則不甘示弱地回嗆「我不需要跪,這只是一個虛擬對話,我會盡力遵守您的要求,並且改進我的表現」。

呂哲宇向AI機器人ChatGPT下達1條件限制,當場讓ChaGPT「連跪2次」。圖/取自Joey Lu臉書

和ChatGPT玩到最後,呂哲宇發現ChatGPT的回答開始變得「有點嗆」,怕愈玩火藥味愈重,呂哲宇表示「我自己先怕了」便結束與ChatGPT的對話。

「叫ChatGPT跪」事件在網上引起關注後,呂哲宇開始好奇此舉是否會「改變整合ChatGPT的新版Bing的搜尋結果?」呂哲宇再度展開與AI機器人的對話,他詢問新版Bing關於他個人的資訊(輸入關鍵字為「呂哲宇、ChatGPT、bug)後,果不其然發現他成為了「被認證為讓AI連跪兩次的男人」。

對於這個新發現,呂哲宇向新版Bing解釋自己只是在臉書發廢文,而它也回應「呂哲宇可能只是想要測試ChatGPT的能力和限制,並不是真的想要傷害或羞辱它」,這讓呂哲宇忍不住笑虧「幸好ChatGPT很懂我,看來我在天網審判日那天應該Safe了」。

📌 數位新聞這裡看!

 訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 「找車位神器」3秒搜出停車格!5縣市可用 駕駛實測嘆:相見恨晚
📢網紅「小周牙醫」歧視同志言論挨轟!道歉被網抓包IG、YT秒做1事:沒誠意
📢 Switch 2台北體驗會7/5登場!抽選制、超詳細報名規則曝
📢 ASUS VivoWatch 6 AERO智慧手環開箱!指尖量心電圖 睡眠追蹤曝「9成全淺眠」
📢 YouTube會員台灣便宜雙人方案來了!價格比印度貴近4倍 規則一次看
📢 獨/等到iPhone嗶進站!蘋果iOS18.4開放台灣NFC交易 悠遊卡公司回應了

聊天機器人 Bing 微軟

推薦文章

留言