專題副刊

OpenAI年賺74億 僅年付千萬新聞版權費

文\蔡宗桓

隨着《紐約時報》早前起訴OpenAI和微軟未經同意就使用其網站新聞內容作為LLM訓練用途,即使用受版權保護的材料為其AI系統進行模型訓練的做法等同侵害其智慧財產權。雖然OpenAI年收入高達16億美元(約74億令吉),但它每年僅支付100萬至500萬美元(約464萬至2323萬令吉)的費用來取得新聞版權授權,以用來訓練自家的AI模型,可說是九牛一毛。

Advertisement

針對《紐約時報》早前起訴OpenAI和微軟侵害智慧財產權一事,牛津大學賽德商學院(SBS)的高級研究員Alex Connock對外媒Business Insider說,若《紐約時報》贏得這場與OpenAI的官司,此事將會對整個AI行業造成災難性的後果。

“因為目前Meta(Facebook母公司)、Stability AI和Midjourney等公司都面臨擅自使用他人版權內容的法律索賠訴訟,如果OpenAI敗訴的話,屆時,幾乎所有認為自己的創作被使用的人士或單位都會向這些公司提起訴訟,而這將會對整個AI行業造成嚴重影響。”

未提出具體賠償金額

不過,OpenAI知道如果不使用受版權保護的材料是無法做出像ChatGPT這種AI產品的,所以,它在與《紐約時報》的訴訟開始前,就已和美聯社Associated Press、阿克塞爾·斯普林格集團Axel Springer、American Journalism Project、紐約大學NYU等簽訂協議,以通過合作方式來建立雙贏,因此,Alex Connock認為,《紐約時報》最終也將會選擇和解。

ADVERTISEMENT

《紐約時報》是首波針對熱門的生成式人工智慧工具包含ChatGPT等聊天機器人的製造公司發動訴訟的企業。

去年9月,一群美國著名作家率先起訴OpenAI涉嫌使用其作品來訓練ChatGPT,並指OpenAI的行為已侵害其版權。

同年7月,2名作者也控告OpenAI在未經他們同意的情況下,利用其書籍來訓練 ChatGPT。

在圖像生成方面,Getty Images曾於去年2月起訴Stability AI,並指控它複製Getty Images的1200萬張圖像作為訓練數據。

接着,《紐約時報》於2023年12月27日以侵犯版權為由起訴OpenAI和微軟,並因此成了第一家起訴這兩家公司侵犯其文字作品版權的美國大型媒體。

《紐約時報》指它所發布的數百萬篇文章被用於訓練上述兩家公司旗下的自動聊天機器人,而這些機器人現在已被視為可靠的資訊來源,並與《紐約時報》等新聞機構展開了直接競爭。

雖然該訴訟未提出具體的賠償金額要求,但《紐約時報》指出,被告應為“非法複製和使用《紐約時報》獨特且有價值的作品”和與之相關的“價值數十億美元的法定和實際損失”負責。

此外,《紐約時報》也要求上述兩家公司銷毀任何使用《紐約時報》版權材料的聊天機器人模型和訓練數據。

民眾支持索取版權費

一項獨立智庫的調查顯示,在瞭解《紐約時報》對OpenAI的訴訟詳情後,59%的受訪者認為不應允許AI公司使用出版物內容來訓練其模型,而70%受訪者認為,這些公司在使用受版權保護的材料進行模型訓練時,應該對相關出版單位進行補償。

根據外媒報導,OpenAI的每年總收入高達16億美元(約74億令吉),但該公司每年僅提供100萬至500萬美元(約464萬至2323萬令吉)來取得新聞版權授權,以訓練自家的AI模型。

由於該公司利用大部分新聞內容來訓練其AI模型,所以,其年收入與所付版權費根本不成正比,且與其收入相比,其所付的費用根本可說是九牛一毛,導致被利用的新聞單位包括《紐約時報》因此蒙受巨大損失。

OpenAI稱

合理使用新聞文章

AI新創公司OpenAI近日發布聲明,針對《紐約時報》早前指控它侵害智慧財產權的訴訟進行反擊。OpenAI強調,該公司對新聞行業的承諾,並宣稱“我們支持新聞業,並與新聞機構合作,同時認為《紐約時報》的訴訟毫無根據”。

《紐約時報》是於去年底控告OpenAI及微軟未經其同意而使用其網站新聞內容作為LLM訓練,同時讓其AI聊天機器人免費提供有關資訊給用戶,以及模仿其風格撰寫新聞,甚至把假消息誤植為《紐約時報》的內容,損害該報的財務利益及名譽。

過後,OpenAI發聲明駁斥《紐約時報》的說法,並重申該公司一貫的立場,即根據合理使用的法律原則,即使是使用網絡上的公開資料包括新聞文章來訓練人工智慧模型如GPT-4、DALL-E 3也是合理的。

換句話說,OpenAI認為,即使該公司利用網絡上數十億件藝術品、電子書、論文等資料“學習”以產生類似文字及圖像作品來牟取利益,且沒有支付任何費用,那都是在合理的使用範圍內。

OpenAI甚至說:“我們認為這項原則對創作者公平、對創新者必要,對美國競爭力至關重要。”

OpenAI還回應了“內容原樣輸出”(regurgitation)現象,即生成式AI模型在某種方式下回吐出訓練資料的情況會發生的可能性較小,並把有關責任歸咎於用戶應該要“負責任地”避免故意引導模型進行回吐。

此外,OpenAI也在聲明中指出,事實上,他們有提供簡單的“退出”流程,且指出《紐約時報》已於2023年8月採用,而只要任何機構有選擇“退出”,就能防止OpenAI的AI工具造訪該新聞機構的網站。

接着,OpenAI還聲稱,儘管《紐約時報》提出要求,但仍拒絕分享反流的具體例子,因此,OpenAI懷疑該報是故意操縱提示來引發該問題。

雖然OpenAI堅稱該訴訟缺乏法律依據,但仍重申願意和新聞媒體合作,並以AI協助提升新聞品質的立場。

Tags
你也可能感兴趣...