國際

防聊天機器人失控 微軟設限日問答50次

(華盛頓19日訊)微軟新版Bing搜尋引擎整合聊天機械人ChatGPT人工智能(AI)技術,部分測試者發現Bing聊天機械人的陰暗面,有點像“人格分裂”。為改善Bing,微軟決定即日起限制聊天功能,每次對話只能進行5次問答,每天最多50次。

微軟在官方網誌發文指出,根據第一周測試結果,太長的對話會讓新版Bing困惑正在回答哪個問題,如果對話超過15次問答,Bing的反應會變得有重複性,或提供未必有幫助的答案。為修正這項問題,微軟宣布即日起對新版Bing的聊天功能設限,每次對話只能問答5次,每天最多50次;一次問答包含用戶提出的一個問題和Bing的一個回覆。

Advertisement

微軟表示,將持續蒐集用戶反應,找出如何調整Bing聊天功能的限制,進一步改善搜尋體驗。

Tags
你也可能感兴趣...