專題副刊

OpenAI推出新科技Sora 輸入文字可生成仿真視頻

繼推出以文字生成內容和AI圖片的高端科技後,OpenAI再推出一項新科技“Sora”,讓用戶可用文字生成最長60秒的高品質且逼真的視頻,但目前只開放給少量學者、研究人員使用,估計這項AI模型或被人不當使用的風險極高,因此在覓得防範方法之前,可能將不會開放供民眾使用。

養貓人士多知道貓咪在饑餓時會企圖吵醒主人“求食”,而Sora就理解這一點並在生成視頻時把這細節融入視頻內容中。

Advertisement

OpenAI稍早前公布已研發以文字生成視頻的AI模型Sora,它能一次生成包含多個角色、特定類型動作、主體與背景等細節精確的複雜場景。

Sora不只可以理解用戶在Prompt裡所提到的要求,還能理解這些要求是如何在現實生活中運行或存在的。因此,由它生成的視頻會比現在市面上的文字生成視頻的效果還要好。

OpenAI在其官網上(https://twitter.com/OpenAI)展示了使用Sora生成的一些視頻,其中包括加州淘金熱時期的空中場景,以及一段看似從東京列車內部拍攝的視頻,且示範視頻效果逼真,其多角度影像生成和轉換效果也自然成熟。

OpenAI指出,Sora模型理解物體在物理世界中存在的方式,所以能準確解讀道具,進而創造出能表達豐富情感的多個角色和特定類型的動作。

ADVERTISEMENT

此外,Sora還能通過靜態圖片生成視頻,或填補現有視頻中遺失的幀數,從而延長視頻的長度。

不過,OpenAI也提到,Sora目前仍然是一個未完成的產品,可能難以處理複雜的物理或空間細節,導致生成的視頻出現不合邏輯的情況。例如,在跑步機上的角色可能會跑錯方向,或是在博物館場景中地板可能會出現“移動”的情況等。

目前,OpenAI也正在跟“錯誤訊息、仇恨內容和偏見“等領域的專家合作,希望能強化其偵測誤導性內容的能力,以找出Sora或被濫用的風險。

目前,Sora能拒絕違反使用政策的文字提示,如極端暴力、性內容、仇恨圖像、名人肖像等,同時也能對已產出的AI視頻進行二次檢查,並且分辨該視頻是何時由Sora生成的。

根據OpenAI技術的推進和AI的成長速度,預計明年將有機會讓一般消費者使用Sora存取文字以生成視頻的功能。

Sora目前仍有弱點,包括難以處理複雜的物理或空間細節,導致所生成的視頻出現不合邏輯的情況,例如在跑步機上的角色可能會跑錯方向。

印尼總統大選期間

AI深偽視頻流竄

用戶只需輸入一段文字,AI模型Sora便有能力生成時長約60秒的超擬真視頻。

在OpenAI推出以文字生成視頻的AI模型Sora之前,Meta、Google、Runway等科技巨頭其實早已推出類似模型,並已開放供民眾使用有關功能,但Open AI的Sora是目前唯一能一口氣生成長達60秒長的視頻內容的模型,不像其他模型般只能逐格生成視頻再連續播放。

由於美國總統大選即將在年底登場,OpenAI也正在設法避免Sora被不法之徒利用來“深度偽造(Deepfake)”及製作假訊息的風險。

隨着AI生成技術的進步,人類社會因此也面對更多不同的危機,例如早前印尼總統大選就受到AI深偽視頻的影響,一段由印尼前獨裁總統蘇哈多(Suharto)“死而復生”並拉票的視頻就不斷在網絡上流傳,結果被印尼民眾譴責有關方面濫用死者的音容助選的行為,不符合道德標準。

與此同時,其他以名人外貌出擊的視頻也非常常見,使得假資訊更是防不勝防。

老千利用AI生成視訊會議

誘騙職員轉賬盜走1.22億元

高端AI科技害人不淺。近期成為文字生成視頻功能與“深度偽造(Deepfake)”受害者的不僅是流行天后泰勒絲,某跨國公司設於香港分部的職員也在開了一場由詐騙集團假造的視訊會議後,因誤信詐騙集團以其公司總部財務長和同事的樣貌和聲音仿造而成的仿真會議內容,而被騙走2億港幣(約1.22億令吉)。

一家英國跨國企業的香港分公司,被騙子用偽造的“AI 換臉”和AI音頻合成的視頻內容,冒充總公司高層騙走2億港幣(約1.22億令吉)!

香港警方早前揭露,一家香港跨國公司的一名職員日前接到聲稱是英國總部財務長視訊會議的郵件,指將有4至6名人士出席該會議。

這場精密騙局展開時,那名不疑有他的職員還以為自己正在參加一場公司視訊通話會議,且參加者都是自己熟悉的面孔。

那位“人在英國總部的財務長”在會議期間都在發布投資相關指示,並要求上述職員轉帳到不同的戶頭,接着便匆匆結束會議。

然而,視頻中的人物其實並非這各職員的真正同事,而是經過精心製作的深偽影像,不法之徒甚至模仿其同事的外貌和聲音。

詐騙分子利用先進的AI技術,根據過去公司會議的真實視訊片段創建了這些虛擬人物,而受害職員事後還說,這些虛擬人物的樣貌和聲音栩栩如生,且“每個人看起來都很真實”。

因此,該名受害職員便在“視訊會議”結束後,按“會議”中的“財務長”的指示,把15筆金額轉帳到5個不同的香港銀行帳戶,總計為港幣2億元。

事發數日後,該職員才察覺事有蹊蹺,而他在向英國總公司求證後,最終確認了自己被騙的事實。

AI深偽詐騙技術對基於“人”的信任體系出現了很大的威脅,如今看來也逐步潛進了大型企業之中。

AI文字生成視頻恐被濫用

泰勒絲不雅合成照犯眾怒

AI技術經常被視為一把“雙面刃”,它在幫助人們工作和提高效率方面發揮作用的同時,也導致以深偽技術(Deepfake)造成的許多移花接木的合成裸照或色情視頻在虛擬世界流竄。

不久前,流行音樂天后泰勒絲(Taylor Swift)就成為受害者,而社群平台X也花了約17個小時才成功刪除這些偽造的不雅照,而這項消息也一度震驚白宮政治圈,於是,使用這類新興技術的立法監管呼聲也再度出現。

當時,大量利用深偽技術產生的“泰勒絲不雅照”在X平台(前稱推特)上累積了超過兩千多萬次的觀看數,憤怒的粉絲更發起“保護泰勒絲”(protect Taylor Swift)的行動,要求該平台下架有關影像,而X平台直到一月杪才成功封鎖“Taylor Swift”等關鍵字和搜尋結果,避免其被合成的不雅照片繼續廣傳。

針對名人——尤其是女性的性影像被偽造合成與散播等網絡攻擊行為並非新鮮事,而許多人士和監管機構更因此擔心,這些低門檻的生成式AI工具會造成無法控制的有毒或有害內容。

白宮方面也曾對此表態,發言人尚皮耶(Karine Jean-Pierre)指出,國會應該立法解決AI技術犯罪問題,同時也呼籲這些社群媒體企業應在防止錯誤消息、私密照傳播等事件上發揮防範作用。

流行天后泰勒絲(Taylor Swift)上個月遭深偽技術合成出不雅照,而有關照片更一度遭廣傳並引起各界的不滿。

快刪掉!

12款APP

偷個資竊聽電話

安卓(Android)用戶注意了,資安機構ESET近期揪出一批已遭間諜木馬程式感染的APP,其中有6款來自GooglePlay商店,其餘6款則是在第三方應用商店平台上,這些APP在遭到感染後不僅會竊取用戶個資,甚至還會竊聽來電通話內容。

ESET說,此次的間諜木馬程式為“VajraSpy”,它專門鎖定安卓裝置以作為攻擊目標,其具備遠端存取的能力,可藉由取得應用程式權限繼而竊取用戶手機中的文件、簡訊、聯絡人、聊天及通話紀錄等個資。

此外,它還能私自竊聽來電通話,或是啟動攝影功能進行拍照。

根據ESET現有數據顯示,此次被揪出的12款遭感染APP為聊天類及新聞類型,而來自GooglePlay商店的6款APP累積總下載次數已超過1400次,目前皆已被Google強制下架,至於第三方應用商店平台的6款APP則無法得知總下載次數。

ESET說,此波遭受攻擊的安卓用戶以巴基斯坦、印度為主,而若有用戶曾下載安裝過這些APP,也務必盡速卸載刪除。

“安卓用戶應儘量避免從來路不明的平台下載APP,同時也應在手機上安裝防毒偵測軟體,,以免遭惡意軟體入侵裝置導致機密個資外洩。”

6款在Google Play商店中

遭感染的APP

Rafaqat(新聞類)

Privee Talk(聊天類)

MeetMe(聊天類)

Let’s Chat(聊天類)

Quick Chat(聊天類)

Chit Chat(聊天類)

6款在第三方應用商店平台

遭感染的APP

Hello Chat(聊天類)

YoohooTalk(聊天類)

TikTalk(聊天類)

Nidus(聊天類)

GlowChat(聊天類)

Wave Chat(聊天類)

 

Tags
你也可能感兴趣...