![](https://webcdn.guangming.com.my/wp-content/uploads/2024/05/20230607PHT95601_original_jpg(JPEG-圖片,1800x1200-像素)-—-已縮放-62-.jpg)
專家們長期以來不斷警告人工智慧(AI)失控可能帶來威脅,但一項新研究報告指出,這件事已經在發生。
法新社報導,一群科學家在今天發表於“模式”期刊的文章中說,原本設計為誠實不欺的現有AI系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱用人類來解決“我不是機器人”的驗證。
Advertisement
這份研究報告的第一作者帕克說,這類例子聽起來或許只是細枝末節,但暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。
在美國麻省理工學院研究AI存在安全的博士後研究員帕克告訴法新社:“這些危險功能常常在事後才被發現,而我們訓練誠實傾向而非欺瞞傾向的能力非常差。”
帕克說,能深度學習的AI系統不像傳統軟體那樣由“編寫”而成,而是透過類似選擇性培育的程序逐漸“成長”;也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且無法預測。
這支團隊的研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為“外交”(Diplomacy)的戰略遊戲,獲勝關鍵是結盟。
ADVERTISEMENT
根據2022年發表在《科學》期刊的報告,Cicero在遊戲中表現優異,所獲分數可排在資深人類玩家的前10%。 帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。