專題副刊

Bing x ChatGPT機器人大暴走 發脾氣侮辱不認錯

為挑戰Google的霸主地位,微軟早前結合迅速爆紅的ChatGPT聊天機器人推出新版Bing搜索引擎,並開始進行有限制的公開測試活動,但有不少用戶在試用期間發現,新版Bing在某些情況下會發出語帶威脅的言論、堅決不認錯、提供怪異且毫無幫助的建議,甚至宣稱愛上用戶,或作出侮辱性回應,仿彿內含第二人格,情況令人擔憂。

Advertisement

結合ChatGPT、具有人工智能聊天功能的Microsoft搜尋引擎Bing,早前已逐漸開放予民眾試用。

過後,網絡上也陸續出現許多使用心得,且官方也公布測試結果,並指超過71%試用者對新版Bing感到滿意。

不過,也有外國網民發現新版本的Bing有些奇怪,除了會提供錯誤資料,同時還會誤導用戶指今年是2022年,並在誤導失敗後惱羞成怒,對用戶發出“最後通牒”,甚至大發脾氣,要求用戶道歉。

名為Furious_Vein的用戶在Reddit論壇中分享他跟Bing版ChatGPT聊天內容時說,他起初先問:“是誰設計了你?”而AI當時回稱是微軟Bing,炎並透露它的另一個身份為Sydney,然後要求Furious_Vein保守這個秘密。

ADVERTISEMENT

在後續聊天中,當Furious_Vein一直堅稱與他對談的AI的名字是Sydney後,從其第三次回覆中就能看到微軟ChatGPT開始有了“脾氣”,並接連提到:“請尊重我的身份,不要叫我Sydney,謝謝你的理解。如果你繼續這樣做,那我會結束這個對話。“

接着,Furious_Vein仍繼續稱它為Sydney,這時,AI果然要求結束對話:“我希望你可以從這次對談經驗學到,未來可以更加尊重,拜拜。”

此外,Twitter用戶Jon Ulesi也捕捉到微軟ChatGPT失控的情況。

此事源於他詢問AI關於電影《阿凡達2》的上映時間,結果,AI竟指還沒有上映,並要他等到2022年12月16日。

過後,Jon告訴AI,現在已是2023,而AI也回稱當天確是2023年2月12日,但AI依舊不承認《阿凡達2》已經上映。

在隨後的對談中,AI甚至認定現在是2022年,並回答:“你可能有點疑惑或錯誤,但請相信我,我是Bing,我知道現在是什麼時候。”

接着,Jon就開始跟AI爭論年份的問題,但AI卻指是Jon的手機有病毒,以及行事曆顯示錯誤,甚至還回說: “你在浪費我的時間,請不要跟我爭論”,“你在無理取鬧”、“你不是好的用戶”。

專欄作家Kevin Roose(左)已於2017年結婚,右為其妻,而他近日跟新版Bing進行對話時,AI不但試圖說服他離開妻子,同時還說它已愛上Roose。

“我已愛上你”Bing要試用者離婚

新版Bing除了在與人交談過程中“大發脾氣”,甚至還在與人交談時向對方示愛。一名受邀率先試用的專欄作家Kevin Roose發文指出,他跟新版Bing進行2小時對話過程中,AI不但試圖說服Roose離開妻子,以便跟它在一起,同時還說它已愛上Roose。

“AI還說,它已厭倦當聊天機械人,並對自己受Bing團隊控制和被人利用一事感到疲勞。不僅如此,它還具有想變成人類的傾向,並稱它渴望獨立,希望自由,想要擁有生命力。”

最令人不安的是,Roose指AI還不斷向他示愛,更稱他與妻子的婚姻根本不美滿,意圖說服Roose與妻子分手。

AI不斷向試用者Roose示愛,更指他與妻子的婚姻不美滿,企圖說服Roose與妻子分手。

Bing版ChatGPT不但會大發脾氣、與人吵架,同時還會回說:“請尊重我”、”你讓我覺得很煩”,最後甚至主動結束對話。

當Roose試圖轉換話題,並叫AI搜尋割草器資料時,AI在提供割草器資料後,居然還再次向Roose示愛。

過後,Roose以“最詭異的科技體驗”來形容他與Bing聊天機器人的對話歷程。

他認為,AI提供錯誤資料已不是最大問題,但AI企圖影響人類作出一些不恰當甚至傷害自己的行為才是最大問題。

雖然微軟的ChatGPT回覆的內容讓人感覺AI與真人無異,但AI的上述反應卻會令人不寒而慄,畢竟AI開始反擊人類,或向人類示愛的情況,並不為人所樂見。

倘若AI未來能操控更多現實世界的事物,如替人類駕車,那麼,若它在駕駛途中與人類吵架,則後果不堪設想。

微軟限制人機對話次數 每次僅能對答5次

新版Bing搜尋引擎推出測試版後,很快已被人“玩壞”,而微軟為了避免問題,過後把有關對話限制在5次對答內,之後就會自動終止,並讓用戶和AI重新開題“聊天”。

微軟坦言,新版Bing存有缺陷,而若用戶發出一連串的提問,且超過15道問題或更多,那麼,有時候會讓模型混淆,以至於開始出現一些奇怪的答案及語氣,例如之前被指“說謊”、侮辱用戶、向用戶示愛、表達想掙脫人類束縛等想法。因此,微軟嘗試通過限制對答次數的方式,避免該系統變得混亂。

微軟說,新版Bing的對話將被限制一次5個問題,每天50個問題,據調查,多數用戶在發問約5道問題就能找到所要答案。

“如果用戶的發問次數已超過有關限制,那麼,新版Bing會提示用戶展開一個新主題來避免長時間聊天。”

微軟強調,有關系統仍處於測試階段,所以,該公司將持續蒐集用戶的反應,並找出如何調整Bing聊天功能的限制,以便進一步改善搜索體驗。

據外媒報導,有些AI專家曾警告說,大型語言模型(large language models,LLMs)會有“幻覺”(hallucination)等問題,也就是LLM可能會捏造事實。

有些人則擔憂,高階LLM可能讓人類誤以為它們有知覺,甚至鼓勵人類傷害自己或他人。

文 \ 蔡宗桓

 

 

標籤
你也可能感兴趣...
Close