爆“卷”的AI視頻,大廠向左,創(chuàng)企向右

1 評論 634 瀏覽 2 收藏 22 分鐘

從Sora的發(fā)布到國內(nèi)各大模型的加速追趕,我們見證了一個充滿潛力的黃金賽道的誕生。但技術(shù)的快速發(fā)展同時帶來了應(yīng)用和商業(yè)化的挑戰(zhàn)。本文將帶你一探究竟,AI視頻生成的未來將如何塑造我們的數(shù)字世界。

“生成的人物一轉(zhuǎn)身就變成老外,怎么解決呢?”

“沒有辦法,10s中動作大的,人物一致性有問題,只能抽卡,多刷幾個,選擇一個變化不大的?!?/p>

在一個以Ruanway學(xué)院為主題的群中,不斷有各種針對AI視頻生成的問題產(chǎn)生,而群內(nèi)有AI視頻生成使用經(jīng)驗的,則也在積極分享自己的使用方法論,并解答相關(guān)問題。

這樣的AI視頻生成相關(guān)的群聊并不在少數(shù),且每個群都相當(dāng)活躍,大部分用戶對AI視頻生成工具都保持了相當(dāng)高的興趣,并在各種平臺上分享自己基于AI視頻生成工具所創(chuàng)造出的視頻內(nèi)容。

國內(nèi)用戶積極對AI視頻生成工具探索和使用的背后,是今年2月份Sora的發(fā)布,作為行業(yè)發(fā)展風(fēng)向標(biāo),徹底引爆了國內(nèi)AI視頻大模型生成賽道。

3月字節(jié)跳動旗下剪映Dreamina(即夢)開放內(nèi)測;4月,AI企業(yè)生數(shù)科技發(fā)布號稱首個國產(chǎn)自研視頻生成大模型Vidu;6月,快手可靈AI正式開放內(nèi)測。

7月,商湯推出最新AI視頻模型 Vimi,阿里達(dá)摩院也發(fā)布AI視頻創(chuàng)作平臺“尋光”,愛詩科技則發(fā)布PixVerse V2,快手可靈宣布基礎(chǔ)模型再次升級,并全面開放內(nèi)測,而智譜AI也宣布AI生成視頻模型清影(Ying)正式上線智譜清言。

同時,這些AI視頻大模型生成工具大部分都已經(jīng)向公眾開放使用。7月30日,生數(shù)科技的AI視頻大模型Vidu也正式面向全球公眾開放使用。

歷經(jīng)大半年,國內(nèi)大模型賽道終于進(jìn)入Sora時刻。從AI跳舞、火柴人,到5秒~16秒的高質(zhì)量視頻生成,AI視頻大模型的生成能力整體都邁入了下一個階段。

不過,相比于至今仍未開放的Sora,中國的AI視頻大模型已然開啟加速模式。在技術(shù)能力不斷迭代升級的同時,還在持續(xù)進(jìn)行技術(shù)應(yīng)用和商業(yè)化落地探索。

事實上,相比于ChatGPT等聊天機(jī)器人,AI視頻生成大模型作為一個具有工具屬性的產(chǎn)品,天然就具備商業(yè)化變現(xiàn)能力,現(xiàn)階段開放給公眾使用的AI視頻生成工具也皆采用付費(fèi)模式。

如智譜清影上線的定價策略是:首發(fā)測試期間,所有用戶均可免費(fèi)使用;付費(fèi)5元,解鎖一天(24小時)的高速通道權(quán)益,付費(fèi)199元,解鎖一年的付費(fèi)高速通道權(quán)益。

不過,當(dāng)前AI視頻生成賽道的商業(yè)化仍處于非常早期階段。

“說實話,我們也不知道未來商業(yè)策略會是什么樣,或什么形式最好,目前所謂的收費(fèi)策略更多是一種早期嘗試,試試看市場和用戶反饋,后面會及時調(diào)整?!敝亲VAI CEO張鵬如此說道。

AIGC智能創(chuàng)意平臺筷子科技創(chuàng)始人兼CEO陳萬鋒也表示:“目前C端用戶基于AI視頻大模型平臺開發(fā)出的視頻應(yīng)用指向型不強(qiáng),這些平臺也并不知道C端用戶將會如何使用這些視頻?!?/p>

從技術(shù)的迭代更新,到探尋技術(shù)的應(yīng)用和商業(yè)化變現(xiàn),國內(nèi)AI視頻生成賽道玩家們無疑是在加足馬力狂奔。但從當(dāng)前行業(yè)現(xiàn)狀來說,卻也仍存在諸多挑戰(zhàn)。

01 AI視頻軍備競賽,都在“卷”什么

用AI生成視頻,并不是新物種,只不過此前AI視頻生成的時長一直卡在2s-4s,且整體視頻生成效果體驗并不足夠令人驚艷。

Sora一發(fā)布,則直接展示了其生成的1分鐘視頻,且其視頻所展示的畫面效果驚人,就算在視頻動態(tài)運(yùn)動情況下,隨著空間的移動和旋轉(zhuǎn),視頻中出現(xiàn)的人物和物體也會保持場景一致性移動。

Sora展示的視頻內(nèi)容

這可以說震驚了整個AI屆。Sora背后的技術(shù)架構(gòu),也被業(yè)界所了解并跟進(jìn)。

此前AI視頻生成的技術(shù)路線主要有2大類:

  • 一類是Diffusion Model(擴(kuò)散模型技術(shù)路線),主要玩家包括Runway、Pika Labs等。
  • 一類是基于Transformer架構(gòu)的大語言模型生成視頻技術(shù)路線。

去年12月底,谷歌發(fā)布了基于大語言模型的生成式AI視頻模型VideoPoet,這在當(dāng)時被視為生成視頻領(lǐng)域中,擴(kuò)散模型之外的另外一種解法和出路。

Diffusion Model將一張圖片通過引入噪聲使其變成原始馬賽克,在通過引入“神經(jīng)網(wǎng)絡(luò)”,如基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的UNet結(jié)構(gòu),從某個時間點(diǎn)的畫面,減去預(yù)測的噪音,得到的就是最原始沒有噪音的畫面,也就是最終生成的畫面。

大語言模型則是通過視頻數(shù)據(jù)來對大模型進(jìn)行訓(xùn)練,使其能夠理解視頻數(shù)據(jù)中的基本Token詞匯以及所對應(yīng)的視頻畫面。當(dāng)用戶給予指令詞之后,其就能夠根據(jù)學(xué)習(xí)到的Token詞匯生成對應(yīng)的視頻內(nèi)容。

兩種技術(shù)路線都存在各自的優(yōu)劣勢,單一模型所生成的視頻在時長和畫面效果上,都難以實現(xiàn)根本性突破。Sora則選擇了將擴(kuò)散模型和Transformer模型結(jié)合的技術(shù)架構(gòu)體系-DiT(Diffusion + Transformer )架構(gòu)。

有業(yè)內(nèi)觀點(diǎn)認(rèn)為,Sora是將Diffusion擴(kuò)散模型中的U-Net架構(gòu)替換成了Transformer架構(gòu)。

兩者的結(jié)合效果,一個AI從業(yè)者形象的解釋為:擴(kuò)散模型就像是一個雕塑過程,將石料上不應(yīng)該存在的部分去掉,創(chuàng)造出雕塑作品。而Transformer通過自注意力機(jī)制,理解時間線之間的關(guān)聯(lián),則讓這尊雕塑從石座上走了下來。

AIGC創(chuàng)業(yè)者洋芋醬AIgen(藝名)也認(rèn)為:“視頻是一幀一幀的圖像,采用UNet結(jié)構(gòu)的邏輯是按照生產(chǎn)圖像的方式做視頻,AI每生成一張圖像都是隨機(jī)的,所以整個畫面看起來很閃。而用視頻訓(xùn)練的AI,其產(chǎn)出的畫面就相對穩(wěn)定,不會狂閃,具有合理的連續(xù)的幀。”

因此,Sora發(fā)布之后,DiT技術(shù)架構(gòu)也成AI視頻玩家的主流技術(shù)架構(gòu),并將其視為通往AGI的關(guān)鍵技術(shù)。

目前,市面上主流AI視頻工具在生成4秒-10s左右的視頻片段。

生數(shù)科技此次Vidu開放文生視頻、圖生視頻兩個功能,提供4s和8s兩種時長選擇,分辨率最高達(dá)1080P。在速度上,生成一段4秒片段的實測推理速度只需30秒。

愛詩科技的PixVerse V2,可支持生成單個時長8s的片段,且支持一鍵生成1-5段連續(xù)的視頻內(nèi)容,片段之間也會自動保持主體形象、畫面風(fēng)格和場景元素的一致性。

智譜AI的智譜清影可生成6秒的視頻,時間只要30秒左右,清晰度可達(dá)1440×960(3:2)。

快手可靈生成的視頻時長在5s,但其有將視頻時長延長的功能,可以將視頻時長延長至10s,但在生成視頻的速度上,卻相對較慢,往往需要2-3分鐘時間。

從技術(shù)的積累上來看,雖然都在布局DiT架構(gòu),但國內(nèi)AI視頻生成企業(yè)還處于追趕階段,AI視頻生成的時長和效果,尚未達(dá)到Sora的水平。

張鵬也坦言:“Sora的演示效果不錯,我們還是一個初步的階段性成果,達(dá)不到像Sora演示出來那么好、那么長的視頻。我們從來都很坦誠承認(rèn)與OpenAI、和世界頂級水平之間的差距?!?/p>

但國產(chǎn)大模型也在堅持用自己的方式追趕OpenAI,比如“怎么把視頻生成算力成本降下來,響應(yīng)速度提升上去,我們在追求技術(shù)高度的同時,也同步追求技術(shù)的可普及性和成本?!睆堸i說。

無疑,技術(shù)上國內(nèi)AI視頻大模型賽道玩家還在追趕,但在應(yīng)用和商業(yè)化上卻已然走在前列。

02 圖生視頻成主流,不穩(wěn)定、一致性仍是問題

在技術(shù)架構(gòu)升級之后,現(xiàn)如今的AI視頻生成的視頻效果與時長,已經(jīng)與年初有了本質(zhì)的區(qū)別。

當(dāng)前,各AI視頻大模型產(chǎn)品主要提供2大核心能力,一個是文生視頻,一個是圖生視頻。兩個核心功能的工作流并不一致,文生視頻可通過一句指令生成一個想要的視頻。

而圖生視頻的工作流更為復(fù)雜,要先用文字指令詞通過Midjourney或Stable Diffusion等工具生成自己想要的圖片,再基于圖片通過AI視頻生成工具生成視頻內(nèi)容。

于普通的業(yè)務(wù)愛好者而言,想要體驗AI視頻生成效果,文生視頻功能已經(jīng)夠用。

但對于想要基于此進(jìn)行視頻內(nèi)容商業(yè)化交付的從業(yè)者而言,“基本上,沒有人用文生視頻?!?/strong>星賢文化創(chuàng)始人、AI原創(chuàng)玄幻IP《山海奇鏡》制作人陳坤對光錐智能說道。

對此,陳坤解釋到,文生視頻無法保持前后內(nèi)容的一致性。就單個鏡頭來說,文生視頻可以滿足要求,會很好看,很驚喜,但卻無法保證下一個鏡頭與前一個鏡頭的一致性。畢竟AI技術(shù)尚不能通過一段文字描述就能夠讓人物和空間美學(xué)保持一致性。

“為了保持作品風(fēng)格的一致性或者人物的一致性,必須用圖生視頻控制住畫面里的內(nèi)容?!毖笥筢uAIgen也如此說道。

去年12月,陳坤帶領(lǐng)團(tuán)隊利用 PixVerse 制作《山海奇鏡之劈波斬浪》的4K分辨率預(yù)告片。

圖片來自:《劈波斬浪》

今年7月13日,陳坤基于快手可靈大模型重新打磨的《山海奇鏡之劈波斬浪》正式上線快手平臺,19日單日播放量達(dá)到了2026.7萬,上線十天累計播放量達(dá)到了5164.9萬,后續(xù)榮登德塔文短劇指數(shù)榜第一。

在陳坤看來:“半年前,AI影視很難用生動的表演表現(xiàn)復(fù)雜敘事,很多的動作場面也需要通過蒙太奇的剪輯來實現(xiàn),在制作過程中,由于3—4秒的單個鏡頭時長限制(在當(dāng)時就是這個時長),整個片子的節(jié)奏感會受到影響?!?/p>

“就AI影視賽道來看,可靈的能力確實很厲害,既有文生視頻,也有圖生視頻,且其畫面中的動作幅度展示都很不錯。”陳坤如此說道,“不過,每家AI視頻生成工具都有自己的特點(diǎn),比如Runway,它的Gen3鏡頭偏電影感,盡管之前只有文生視頻功能,但很多創(chuàng)作者也很喜歡用?,F(xiàn)在它也推出了圖生視頻功能”

作為一個資深玩家,洋芋醬AIgen也認(rèn)為:“目前最好用的是可靈、luma 和Runway?!绷硪晃挥耙晱臉I(yè)者琪琪(化名)則表示,Sora的整體效果應(yīng)該最好,但其并未開放。

不過,在實際的體驗過程中,雖然現(xiàn)階段相比于半年前在視頻時長和效果上有了質(zhì)的飛躍,但仍存在畫面人物變形、畫面不穩(wěn)定以及前后不一致性等問題。

總結(jié)下來,從業(yè)者在使用AI視頻時,主要有5大痛點(diǎn):包括人物一致性,場景一致性,人物表演,動作交互,運(yùn)動幅度等。

“由于大模型技術(shù)并不完善,在視頻生成過程中畫面不可避免的產(chǎn)生畸變。”陳坤稱。

對此,行業(yè)從業(yè)者就會通過不停“抽卡”(讓AI不斷自主隨機(jī)生成相關(guān)畫面)的方式,最終得到一個相對滿意的效果畫面。

“即便我們用可靈,在一個火神和水神打架的鏡頭上,還‘抽卡’不下100次,但也并未抽到我特別滿意的鏡頭,后來實際用的畫面其實也是帶了一定畸變的?!标惱ふf道。

從現(xiàn)階段的技術(shù)手段來看,短期內(nèi)可能無法解決這一問題。張鵬認(rèn)為:“最簡單的可控,就是我說什么模型做什么,而想要實現(xiàn)這一可控,強(qiáng)烈依賴于模型能不能夠理解這個內(nèi)容,而這也是多模態(tài)大模型發(fā)展的初衷?!?/strong>

用發(fā)展中的技術(shù)去解決發(fā)展中的問題,將是AI視頻大模型未來發(fā)展迭代升級的關(guān)鍵。“內(nèi)容生成,尤其是視頻內(nèi)容生成,絕大部分情況下還是由‘人用語言描述’的方式來控制。從自然語言到視頻生成,這才是真正的可控,更高層面的可控,這是技術(shù)層面的事情?!睆堸i如此說道。

現(xiàn)階段AI視頻大模型技術(shù)仍處于比較早期階段,并未有任何一家AI視頻生成工具爬到了山頂。而在各家攀登山頂?shù)倪^程中,生態(tài)體系的建設(shè)以及商業(yè)化變現(xiàn)也成為關(guān)鍵。

03 黃金賽道的起點(diǎn)

“技術(shù)應(yīng)用到行業(yè)的速度,遠(yuǎn)慢于技術(shù)自身的發(fā)展?!标惾f鋒如此說道,“AI技術(shù)發(fā)展很快,但滲透到產(chǎn)業(yè)中,產(chǎn)生價值的速度可能要慢十倍。”

純技術(shù)路線發(fā)展的角度來看,從單模態(tài),到多模態(tài),最終的目標(biāo)是達(dá)成AGI。但將AI進(jìn)行產(chǎn)業(yè)化落地應(yīng)用,與技術(shù)升級迭代是兩碼事。

現(xiàn)階段,國內(nèi)眾多大模型公司的技術(shù)追趕已經(jīng)過了一個階段,將會把更多的精力聚焦在落地和應(yīng)用上,通過與場景的結(jié)合,數(shù)據(jù)的反饋,再推進(jìn)底層技術(shù)迭代升級。

而相比于ChatGPT這種聊天機(jī)器工具,AI視頻生成則是大模型技術(shù)商業(yè)化落地的黃金賽道。

之所以說其是黃金賽道,主要基于兩個方面:

一個是作為AI視頻生成工具,其天然具有收費(fèi)優(yōu)勢。

目前大多數(shù)AI視頻生成工具,面向C端用戶采用的是會員體系。以可靈為例,其目前會員共分為黃金、鉑金、鉆石三個類別,優(yōu)惠后三檔月卡的價格分別為33元、133元和333元,對應(yīng)分別獲得660、3000 、8000“靈感值”,可生成約66個、300個或800個標(biāo)準(zhǔn)視頻。

面向B端企業(yè)級用戶,則可以支持通過調(diào)用API的方式進(jìn)行收費(fèi)。如智譜AI,其除了會員制收費(fèi)方式外,還在開放平臺開放了API,收入一定的費(fèi)用。

另外一個方面,AI視頻生成工具讓創(chuàng)作者和消費(fèi)者之間的界限變得模糊,尤其是快手和抖音平臺上,這些視頻博主屬于C端消費(fèi)者,但其又可以基于AI視頻工具進(jìn)行視頻創(chuàng)作,變成B端視頻生產(chǎn)方。光錐智能認(rèn)為,“大C小B的消費(fèi)者是很重要的,甚至可能是最重要的,ToB和ToC的界限越來越模糊?!?/strong>

不過,從商業(yè)化生態(tài)角度來講,大廠和創(chuàng)企在變現(xiàn)的思路上也并不一致。

像抖音、快手這種已經(jīng)行業(yè)頭部視頻平臺,其可以依托自身海量的用戶,通過提供AI視頻生成工具,讓用戶通過這一工具創(chuàng)作相關(guān)內(nèi)容,豐富自己視頻生態(tài)體系。

“大廠不需要賣工具,而是通過用戶進(jìn)行商業(yè)化變現(xiàn)。”陳萬鋒如此說道,“C端為應(yīng)用付費(fèi)模式(對創(chuàng)業(yè)公司來講)在國內(nèi)并不現(xiàn)實,未來或許只有巨頭才有機(jī)會,因為其用戶數(shù)量龐大?!?/p>

與此同時,對于現(xiàn)階段各平臺采取的會員制收費(fèi)方式,陳坤堅定地對光錐智能表示:“我不看好這個會員制,現(xiàn)在即便再便宜,也只對真正能夠商業(yè)化閉環(huán)的創(chuàng)作者有效。如果不是一個商業(yè)化閉環(huán)的創(chuàng)作者,后續(xù)的付費(fèi)率和付費(fèi)意愿都不會很高?!?/strong>

陳坤對此解釋道,一方面C端收取的會員制費(fèi)用相對于大廠研發(fā)九牛一毛,都不夠大模型訓(xùn)練一次。另一方面,一旦AI視頻大模型技術(shù)達(dá)到天花板,這些巨頭一定會進(jìn)行價格戰(zhàn),目的就是為了搶奪用戶數(shù)量,“大廠最終一定會選擇用戶數(shù)量,而不是去賺這些錢。”

因此,于大模型創(chuàng)企來說,如果單純的是賣工具,“在中國只能ToB不能ToC。”陳坤如此說道,“而只有面向企業(yè)端,才是能夠商業(yè)化變現(xiàn)的唯一方式?!?/strong>

而企業(yè)端愿意為其付費(fèi)的原因,則在于其能夠?qū)崿F(xiàn)視頻的商業(yè)化交付,產(chǎn)生營收,能夠支持其對應(yīng)的成本支出。

比如陳坤通過AI短劇進(jìn)行商業(yè)變現(xiàn),洋芋醬AIgen則會根據(jù)客戶的視頻內(nèi)容需求,為客戶制作AI視頻內(nèi)容,“最高一個月能接8單客戶需求,平均每個月有3-4單?!?/p>

而筷子科技,是通過AI視頻的生產(chǎn)工作流和短視頻平臺的投放結(jié)合,來賺品牌的應(yīng)用工具及服務(wù)的錢。

基于此,不難看出,在AI視頻的商業(yè)化中,C端還是巨頭會更成功,創(chuàng)業(yè)者的機(jī)會則在B端。面向未來,快手視覺生成與互動中心負(fù)責(zé)人萬鵬飛也表示,隨著大模型技術(shù)能力的提升,視頻創(chuàng)作者和消費(fèi)者的界限逐漸模糊,促進(jìn)視頻平臺生態(tài)繁榮。

文|白 鴿

來源公眾號:光錐智能(ID:guangzhui-tech),前沿科技,數(shù)智經(jīng)濟(jì)。

本文由人人都是產(chǎn)品經(jīng)理合作媒體 @光錐智能 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自 Unsplash,基于 CC0 協(xié)議。

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 看目前的狀態(tài)來說,AI完全取代人類的可能性不大或者說是遙遙無期。

    來自廣東 回復(fù)