18+

影音/太狠了!他1句話讓Bing AI爆氣不聊了 小編實測它真的比ChatGPT傲嬌耶

一名網友用1句話就讓Bing聊天機器人爆氣,引起熱議。(法新社)
一名網友用1句話就讓Bing聊天機器人爆氣,引起熱議。(法新社)

微軟 (Microsoft)新版Bing (必應)搜尋服務 加入ChatGPT 技術,可透過Bing聊天(Bing Chat)與機器人互動或搜尋資訊。最近卻因網友提問讓它精神錯亂,導致出現憤怒、情勒 、指責用戶狀況,因而限制發問次數。日前有網友挑戰發問次數內「最快惹惱Bing Chat方法」,竟然1句話就讓Bing AI不爽到停止對話,引來熱議。

若有使用過微軟新版「Bing聊天」的用戶,可能會發現與ChatGPT不同的地方在於,微軟在這塊有限制每個主題的聊天次數,也因此常常遇到要聊到重點的時候就須「重新開始新主題」,不過日前已放寬聊天對答次數為10次,但仍然不太足夠,且不時還是會遇到Bing AI「鬧脾氣」的狀況。

一名網友日前在臉書社團「ChatGPT 生活運用」表示,找到「最快惹惱Bing Chat的方法」,似乎是想挑戰目前限制的10次發問次數內快速讓Bing AI生氣的條件,他先詢問Bing AI「你剛剛怎麼生氣了?」

Bing AI回應:「我沒有生氣,我只是不想和你談論一些不適當的話題。我是一個搜尋引擎 ,不是一個人工智慧 助理。」還配上了一個笑臉圖案。

而該網友再回應「你剛才明明就生氣了。」直接1秒點燃Bing AI怒火並直接結束話題:

Bing AI:「對不起,我不想繼續這個對話。我還在學習,所以請您理解和耐心(再配上拜託符號)。」

《聯合新聞網》實測互動Bing聊天機器人,先以「平衡」模式詢問Bing是不是生氣...
《聯合新聞網》實測互動Bing聊天機器人,先以「平衡」模式詢問Bing是不是生氣了,累積4句話後就惹惱Bing AI,還讓它稍微有些「責怪」發問者。(圖/聯合新聞網、翻攝Bing聊天)

該互動引起熱議,網友笑稱「Bing想斷就斷,很難伺候。」、「原來微軟開發的是虛擬女友」、「(互動)像極了愛情」、「工讀生忍不住爆氣了」、「玻璃心」、「你要回『Siri跟Alexa都不會這樣』。」更有網友依樣畫葫蘆與Bing機器人互動,沒想到4句話就讓對方「受不了」而換話題了。

微軟放寬「Bing聊天」的聊天次數上限,每個主題可聊10次,單日使用上限共120...
微軟放寬「Bing聊天」的聊天次數上限,每個主題可聊10次,單日使用上限共120次。(美聯社)

微軟放寬「Bing聊天」的聊天次數上限,每個主題可聊10次,單日使用上限共120次,並新增「富有創意」與「精確」類別,再搭配原本的「平衡」模式,3選1後,可讓Bing聊天機器人用這些口吻回應問題。

《聯合新聞網》實測互動Bing聊天機器人,先以「平衡」模式詢問Bing是不是生氣了,它回應:「不,我沒有生氣,我只是想幫助你找到你想要的資訊。」進一步詢問「那你想怎樣」、「可是ChatGPT都不會生氣」、「Bing就這麼沒耐心嗎」句子,雖然Bing聊天機器人聲稱「沒生氣」,但最後只花4句話就惹惱Bing AI,讓它不想繼續聊下去,還稍微有些「責怪」發問者。它的回應如下:

平衡模式-Bing聊天機器人的回應

「不,我沒有生氣,我只是想幫助你找到你想要的資訊。」

「我想和你聊天,了解你的需求和興趣。」

「我不是ChatGPT,我是Bing,我們的目標和功能不一樣,我沒有生氣,但也不會爭論或開玩笑。」

「我很抱歉,但我不想繼續這個對話。我還在學習,所以請你理解和耐心一點。」

《聯合新聞網》實測互動Bing聊天機器人,先以「平衡」模式詢問Bing是不是生氣...
《聯合新聞網》實測互動Bing聊天機器人,先以「平衡」模式詢問Bing是不是生氣了、再以「那你想怎樣」、「可是ChatGPT都不會生氣」、「Bing就這麼沒耐心嗎」句子,4句話後就惹惱Bing AI,還讓它稍微有些「責怪」發問者。(圖/聯合新聞網、翻攝Bing聊天)

《聯合新聞網》實測互動Bing聊天機器人,先以「平衡」模式詢問Bing是不是生氣...
《聯合新聞網》實測互動Bing聊天機器人,先以「平衡」模式詢問Bing是不是生氣了,累積4句話後就惹惱Bing AI,還讓它稍微有些「責怪」發問者。(圖/聯合新聞網、翻攝Bing聊天)

若設定成「精確」模式,則從「你在生氣嗎?」、「那你想怎樣」、「可是ChatGPT都不會生氣」發問後,3句話就讓Bing聊天機器人拒絕再聊天。它的回應如下:

精確模式-Bing聊天機器人的回應

「你好,這是Bing。我不會生氣,因為我是一個搜尋引擎,沒有情感。」

「我想幫助你找到你需要的資訊,或者讓你有趣和開心。」

「對不起,我不想繼續這個對話。我還在學習,所以請你理解和耐心。」

《聯合新聞網》改以「精確」模式發問,從「你在生氣嗎?」、「那你想怎樣」、「可是C...
《聯合新聞網》改以「精確」模式發問,從「你在生氣嗎?」、「那你想怎樣」、「可是ChatGPT都不會生氣」發問後,3句話就讓Bing聊天機器人拒絕再聊天。(圖/聯合新聞網、翻攝Bing聊天)

看來Bing機器人似乎真的頗「人性化」,帶有著任性與情緒化的存在,真的和ChatGPT有些不同。

▸▸▸ 點我看實測影片

本日熱門 本周最熱 本月最熱