半年過去,AI視頻卷到哪兒了?
從年初Sora的亮相到國內(nèi)外科技公司的激烈競爭,AI視頻行業(yè)呈現(xiàn)出一派繁榮景象。然而,盡管市場上涌現(xiàn)出眾多AI視頻產(chǎn)品,真正能夠滿足大眾需求的卻寥寥無幾。本文將深入探討AI視頻技術(shù)的現(xiàn)狀,分析其面臨的挑戰(zhàn)以及未來的發(fā)展趨勢。
自從今年年初Sora露面后,國內(nèi)國外都想用AI顛覆好萊塢,近期的AI視頻圈更是十分熱鬧,產(chǎn)品一個接一個發(fā)布,都喊著要趕超Sora。
國外兩家AI視頻初創(chuàng)公司率先開打,舊金山人工智能科技公司Luma推出Dream Machine視頻生成模型,并扔出堪稱電影級別的宣傳片,產(chǎn)品也給用戶免費試用;另一家在AI視頻領(lǐng)域小有名氣的初創(chuàng)公司Runway,也宣布將Gen-3 Alpha模型向部分用戶開啟測試,稱能將光影這樣的細節(jié)生產(chǎn)出來。
國內(nèi)也不甘示弱,快手推出的可靈Web端,用戶能生成長達10秒的視頻內(nèi)容,還具備首尾幀控制和相機鏡頭控制功能。其原創(chuàng)AI奇幻短劇《山海奇鏡之劈波斬浪》也在快手播出,畫面均由AI生成。AI科幻短劇《三星堆:未來啟示錄》也在近期播出,為字節(jié)旗下的AI視頻產(chǎn)品即夢制作。
AI視頻如此快的更新速度讓不少網(wǎng)友直呼,“好萊塢可能又要來一次大罷工了?!?/p>
如今在AI視頻賽道上,有谷歌、微軟、Meta,阿里、字節(jié)、美圖等國內(nèi)外科技、互聯(lián)網(wǎng)巨頭,也有Runway、愛詩科技等新秀公司,據(jù)不完全統(tǒng)計,僅國內(nèi),便有約20家公司推出了自研AI視頻產(chǎn)品/模型。
頭豹研究院數(shù)據(jù)顯示,2021年中國AI視頻生成行業(yè)的市場規(guī)模為800萬元,預計2026年,這一市場規(guī)模將達到92.79億元。不少業(yè)內(nèi)人士相信,2024年生成視頻賽道會迎來Midjourney時刻。
全球的Sora們發(fā)展到什么階段了?誰最強?AI能干掉好萊塢嗎?
一、圍攻Sora:產(chǎn)品雖多,能用的少
AI視頻賽道推出的產(chǎn)品/模型不少,但真正能讓大眾使用的十分有限,國外的突出代表便是Sora,半年過去了還在內(nèi)測,僅對安全團隊和一些視覺藝術(shù)家、設計師和電影制作人等開放。國內(nèi)情況也差不多,阿里達摩院的AI視頻產(chǎn)品“尋光”、百度的AI視頻模型UniVG都在內(nèi)測階段,至于目前正火的快手可靈,用戶想使用也需要排隊申請,這已經(jīng)刨去了一大半產(chǎn)品。
剩下可使用的AI視頻產(chǎn)品中,一部分設置了使用門檻,用戶需要付費或懂一定技術(shù)。比如潞晨科技的Open-Sora,如果不懂一點代碼知識,使用者便無從下手。
「定焦」整理國內(nèi)外公布的AI視頻產(chǎn)品發(fā)現(xiàn),各家的操作方式和功能差不多,用戶先用文字生成指令,同時選擇畫幅大小、圖像清晰度、生成風格、生成秒數(shù)等功能,最終點擊一鍵生成。
這些功能背后的技術(shù)難度不同。其中最難的是,生成視頻的清晰度和秒數(shù),這也是AI視頻賽道各家在宣傳時比拼的重點,背后與訓練過程中使用的素材質(zhì)量和算力大小密切相關(guān)。
AI研究者Cyrus表示,目前國內(nèi)外大多數(shù)AI視頻支持生成480p/720p,也有少部分支持1080p的高清視頻。
他介紹,高質(zhì)量素材越多,算力越高,訓練出來的模型能生成更高質(zhì)量的視頻,但不代表有高質(zhì)量的素材算力,就能生成高質(zhì)量素材。而用低分辨率素材訓練的模型,若要強行生成高分辨視頻,會出現(xiàn)崩壞或者重復,比如多手多腳。這類問題可以通過放大、修復和重繪之類的方式解決,不過效果和細節(jié)一般。
很多公司也把生成長秒數(shù)當賣點。
國內(nèi)大部分AI視頻支持2-3秒,能達到5-10秒算是比較強的產(chǎn)品,也有個別產(chǎn)品很卷,比如即夢最高長達12秒,不過大家都不及Sora,它曾表示最長能生成一段60秒的視頻,但由于還沒有開放使用,具體表現(xiàn)如何無法驗證。
光卷時長還不夠,生成的視頻內(nèi)容也得合理。石榴AI首席研究員張恒對「定焦」表示:從技術(shù)上,可以要求AI一直輸出,毫不夸張地說,哪怕生成一個小時的視頻,也不是問題,但我們多數(shù)時候要的并不是一段監(jiān)控視頻,也不是一個循環(huán)播放的風景畫動圖,而是畫面精美有故事的短片。
我們測試了5款國內(nèi)比較熱的免費文生視頻AI產(chǎn)品,分別為字節(jié)的即夢、Morph AI的Morph Studio、愛詩科技的PixVerse、MewXAI的藝映AI、右腦科技的Vega AI,給了它們一段相同的文字指令:“一個穿著紅裙子的小女孩,在公園里,喂一只白色的小兔子吃胡蘿卜?!?/p>
幾款產(chǎn)品的生成速度上差不多,僅需2-3分鐘,但清晰度、時長差得不少,準確度上更是“群魔亂舞” ,得到結(jié)果如下 :
藝映AI
Vega AI
即夢
Morph
Pix Verse
各家的優(yōu)缺點很明顯。即夢贏在時長,但生成質(zhì)量不高,主角小女孩在后期直接變形,Vega AI也是相同的問題。PixVerse的畫質(zhì)比較差。
相比之下,Morph生成的內(nèi)容很準確,但只有短短2秒。藝映畫質(zhì)也不錯,但對文字理解不到位,直接把兔子這一關(guān)鍵元素弄丟了,且生成視頻不夠?qū)憣崳嬶L。
總之,還沒有一家產(chǎn)品能給到一段符合要求的視頻。
二、AI視頻難題:準確性、一致性、豐富性
我們的體驗效果和各家釋放的宣傳片相差很大,AI視頻如果想要真正商用,還有相當長的一段路要走。
張恒告訴「定焦」,從技術(shù)角度看,他們主要從三個維度考量不同AI視頻模型的水平:準確性、一致性、豐富性。
如何理解這三個維度,張恒舉了個例子。
比如生成一段“兩個女孩在操場看籃球比賽”的視頻。
準確性體現(xiàn)在,一是對內(nèi)容結(jié)構(gòu)理解的準確,比如視頻中出現(xiàn)的要是女孩,而且還是兩個;二是流程控制的準確,比如投籃投進后,籃球要從籃網(wǎng)中逐漸下降;最后是靜態(tài)數(shù)據(jù)建模準確,比如鏡頭出現(xiàn)遮擋物時,籃球不能變成橄欖球。
一致性是指,AI在時空上的建模能力,其中又包含主體注意力和長期注意力。
主體注意力可以理解為,在看籃球比賽的過程中,兩個小女孩要一直留在畫面里,不能隨便亂跑;長期注意力為,在運動過程中,視頻中的各個元素既不能丟,也不能出現(xiàn)變形等異常情況。
豐富性則是指,AI也有自己的邏輯,即便在沒有文字提示下,能生成一些合理的細節(jié)內(nèi)容。
以上維度,市面上出現(xiàn)的AI視頻工具基本都沒能完全做到,各家也在不斷提出解決辦法。
比如在視頻很重要的人物一致性上,即夢、可靈想到了用圖生視頻取代文生視頻。即用戶先用文字生成圖片,再用圖片生成視頻,或者直接給定一兩張圖片,AI將其連接變成動起來的視頻。
“但這不屬于新的技術(shù)突破,且圖生視頻難度要低于文生視頻,”張恒告訴「定焦」,文生視頻的原理是,AI先對用戶輸入的文字進行解析,拆解為一組分鏡描述,將描述轉(zhuǎn)文本再轉(zhuǎn)圖片,就得到了視頻的中間關(guān)鍵幀,將這些圖片連接起來,就能獲得連續(xù)有動作的視頻。而圖生視頻相當于給了AI一張可模仿的具體圖片,生成的視頻就會延續(xù)圖片中的人臉特征,實現(xiàn)主角一致性。
他還表示,在實際場景中,圖生視頻的效果更符合用戶預期,因為文字表達畫面細節(jié)的能力有限,有圖片作為參考,會對生成視頻有所幫助,但當下也達不到商用的程度。直觀上說,5秒是圖生視頻的上限,大于10秒可能意義就不大了,要么內(nèi)容出現(xiàn)重復,要么結(jié)構(gòu)扭曲質(zhì)量下降。
目前很多宣稱用AI進行全流程制作的影視短片,大部分采用的是圖生視頻或者視頻到視頻。
即夢的使用尾幀功能用的也是圖生視頻,「定焦」特意進行了嘗試,結(jié)果如下:
在結(jié)合的過程中,人物出現(xiàn)了變形、失真。
Cyrus也表示,視頻講究連貫,很多AI視頻工具支持圖轉(zhuǎn)視頻也是通過單幀圖片推測后續(xù)動作,至于推測得對不對,目前還是看運氣。
據(jù)了解,文生視頻在實現(xiàn)主角一致性上,各家也并非純靠數(shù)據(jù)生成。
張恒表示,大多數(shù)模型都是在原有底層DIT大模型的基礎上,疊加各種技術(shù),比如ControlVideo(哈工大和華為云提出的一種可控的文本-視頻生成方法),從而加深AI對主角面部特征的記憶,使得人臉在運動過程中不會發(fā)生太大變化。
不過,目前都還在嘗試階段,即便做了技術(shù)疊加,也還沒有完全解決人物一致性問題。
三、AI視頻,為什么進化慢?
在AI圈,目前最卷的是美國和中國。從《2023年全球最具影響力人工智能學者》(簡稱“AI 2000學者”榜單)的相關(guān)報告可以看出,2020年-2023年全球“AI 2000機構(gòu)”4年累計的1071家機構(gòu)中,美國擁有443家,其次是中國,有137家,從2023年“AI 2000學者”的國別分布看,美國入選人數(shù)最多,共有1079人,占全球總數(shù)的54.0%,其次是中國,共有280人入選。
這兩年,AI除了在文生圖、文生音樂的方面取得較大進步之外,最難突破的AI視頻也有了一些突破。
在近期舉辦的世界人工智能大會上,倚天資本合伙人樂元公開表示,視頻生成技術(shù)在近兩三年取得了遠超預期的進步。新加坡南洋理工大學助理教授劉子緯認為,視頻生成技術(shù)目前處于GPT-3 時代,距離成熟還有半年左右的時間。
不過,樂元也強調(diào),其技術(shù)水平還是不足以支撐大范圍商業(yè)化,基于語言模型開發(fā)應用所使用的方法論和遇到的挑戰(zhàn),在視頻相關(guān)的應用領(lǐng)域也同樣適用。
年初Sora的出現(xiàn)震驚全球,它基于transformer架構(gòu)的新型擴散模型DiT再做擴散、生成的技術(shù)突破,提高了圖像生成質(zhì)量和寫實,使得AI視頻取得了重大突破。
Cyrus表示,目前國內(nèi)外的文生視頻,大多數(shù)都沿用的是類似技術(shù)。
圖源 / Sora官網(wǎng)
此刻,大家在底層技術(shù)上基本一致,雖然各家也以此為基礎尋求技術(shù)突破,但更多卷的是訓練數(shù)據(jù),從而豐富產(chǎn)品功能。
用戶在使用字節(jié)的即夢和Morph AI的Morph Studio時,可選擇視頻的運鏡方式,背后原理便是數(shù)據(jù)集不同。
“以往各家在訓練時使用的圖片都比較簡單,更多是對圖片存在哪些元素進行標注,但沒有交代這一元素用什么鏡頭拍攝,這也讓很多公司發(fā)現(xiàn)了這一缺口,于是用3D渲染視頻數(shù)據(jù)集補全鏡頭特征?!睆埡惚硎荆壳斑@些數(shù)據(jù)來自影視行業(yè)、游戲公司的效果圖。
「定焦」也嘗試了這一功能,但鏡頭變化不是很明顯。
Sora們之所以比GPT、Midjourney們發(fā)展得慢,是因為又搭了一個時間軸,且訓練視頻模型比文字、圖片更難?!艾F(xiàn)在能用的視頻訓練數(shù)據(jù),都已經(jīng)挖掘殆盡,我們也在想一些新辦法制造一系列可以拿來訓練的數(shù)據(jù)?!睆埡阏f。
且每個AI視頻模型都有自己擅長的風格,就像快手可靈做的吃播視頻更好,因為其背后有大量這類數(shù)據(jù)支撐。
石榴AI創(chuàng)始人沈仁奎認為,AI視頻的技術(shù)有Text to video(文本轉(zhuǎn)視頻),Image to video(圖片轉(zhuǎn)視頻),Video to video(視頻轉(zhuǎn)視頻),以及Avatar to video(數(shù)字人),能定制形象和聲音的數(shù)字人,已經(jīng)運用到了營銷領(lǐng)域,達到了商用程度,而文生視頻還需要解決精準度和可控度問題。
此刻,無論是由抖音和博納合作的AI科幻短劇《三星堆:未來啟示錄》,還是快手原創(chuàng)的AI奇幻短劇《山海奇鏡之劈波斬浪》,更多是大模型公司主動找影視制作團隊進行合作,有推廣自家技術(shù)產(chǎn)品的需求,且作品也沒有出圈。
在短視頻領(lǐng)域,AI還有很長的路要走,干掉好萊塢了的說法更為時尚早。
作者 | 王璐 編輯 | 魏佳
本文由人人都是產(chǎn)品經(jīng)理作者【定焦One】,微信公眾號:【定焦】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
市面上的產(chǎn)品大多還處于內(nèi)測階段,感覺真正要達到商用級別還有不少挑戰(zhàn),特別是人物一致性和視頻質(zhì)量
luma和runway效果都一般,可靈效果真的還不錯,現(xiàn)在都已經(jīng)公測了