為什么生成式AI應用普及不如預期?

0 評論 1043 瀏覽 0 收藏 8 分鐘

作者深入剖析了生成式AI的現(xiàn)狀、挑戰(zhàn)以及未來的發(fā)展方向。通過具體案例和技術(shù)分析,本文將引導讀者更全面地理解這一領(lǐng)域的復雜性和潛力。

這個話題其實我一直想寫,但是一直在猶豫要不要這么說。

猶豫的原因在于,一方面我認為最近這1、2年眼界之內(nèi),最有突破性的技術(shù)創(chuàng)新的確是AI技術(shù),特別是以ChatGPT、Midjounery為代表的AI生成式技術(shù),由于科技創(chuàng)新帶來的新的發(fā)展或者說創(chuàng)業(yè)機會,數(shù)來數(shù)去也就是這么一個大的方向,在這個趨于穩(wěn)定、存量價值競爭的大環(huán)境之下,大家太渴望希望了,太需要新的蛋糕了。

但是另外一方面,作為一名12年互聯(lián)網(wǎng)行業(yè)經(jīng)驗的老兵,且我過去1年時間也是實實在在地在大廠一線做AI產(chǎn)品,探索如何將AI技術(shù)應用到具體的業(yè)務(wù)場景,產(chǎn)生增量效能,太知道AI能做什么不能做什么了。

最終還是Follow我的認知,亮明觀點,不再猶豫。

ChatGPT剛出來那會兒,簡直就是震驚,王炸的效果。但快2年過去了,大家有看到哪些真正顛覆式創(chuàng)新的產(chǎn)品或應用嗎?

問題還是在于這波AI創(chuàng)新的底層邏輯上。

這波的生成式AI創(chuàng)新,底層是一個概率模型

大家不需要了解太過于復雜的技術(shù)邏輯,只是需要知道底層是概率模型即可。舉個例子:

你問ChatGPT,中國歷史上秦朝之后是什么朝代,有可能嘗試100次,90次會得到結(jié)果漢朝,另外10次會得到結(jié)果楚、西楚或者別的什么其他的,為什么呢?

因為大模型在訓練的時候,需要學習語料,語料從哪里來?從各種圖書掃描數(shù)字版、網(wǎng)絡(luò)各種開放的內(nèi)容,也包括人和AI的聊天對話,AI大模型都會去學習,只不過是有針對性地學習,中間加一些排除垃圾數(shù)據(jù)干擾等邏輯。

但是,它本質(zhì)上還是個概率模型,只要是概率模型,就可能會出錯,這是這波AI大模型產(chǎn)品的第一個特點。

這個特點決定了很多領(lǐng)域是無法用的,比如心理咨詢、用藥咨詢、路線推薦,是不能出錯的,出錯之后可能會有非常嚴重的后果,有1%的錯誤率都無法接受。

第二個特點,是平庸

不知道大家有沒有注意到,文生文大模型產(chǎn)出的都是很平庸的內(nèi)容,機器的感覺特別強。這個的原因還是在于大模型是一個學習模型,到處去學東西,正是因為學習能力太強,所以變成了一個全能型選手。好的也學,壞的也學。俗語說近朱者赤近墨者黑,名師出高徒,如果跟著無數(shù)的老師學習,那么到底哪個才是更專業(yè)的呢?大模型很難去識別區(qū)分出來。

所以就造成了,頂級學霸級別的學習力,最后學成了60、70分的水準,因為我們這個社會在某一方面的平均水位也就是60、70分的水位,比如寫作,你讓AI去模仿某個網(wǎng)絡(luò)大V,創(chuàng)作出一樣水準的作品,不是很現(xiàn)實。因為AI的訓練學習需要非常多的數(shù)據(jù),很少的數(shù)據(jù)量是無法產(chǎn)生出足夠大的差異化的。

大家都喜歡AI能夠承擔專家的角色,實際上大模型AI只能是小學生或者普通人的水平,一個普通人的才能會很稀缺嗎?

第三個特點,是昂貴

根據(jù)報道,OpenAI今年運營總成本可能將達85億美元。其中,推理和訓練成本分別高達40億和30億美元。大型語言模型的單次訓練成本少則200萬美元,多則達到1200萬美元,這還不包括模型的實際使用成本。雖然今年國產(chǎn)的大模型廠商的價格下調(diào)99%,應用側(cè)的成本確實有顯著下降,但是AI技術(shù)迭代的總體成本還是非常非常高的。AI大模型更像是一個砸巨量資金看水花的模式。

這幾個特點決定了生成式AI技術(shù)無法大規(guī)?;蛘呱疃冗\用。目前更多地還是當一個輔助能力或者新的亮點特性作為加分項。

而對于未來生成式AI的發(fā)展方向,我認為會是小模型+大規(guī)模專業(yè)的語料+行業(yè)化定向優(yōu)化。

大規(guī)模專業(yè)的語料可以解決概率和平庸的問題,就像如果你給大模型只找專家級的老師,除非它自己發(fā)散放飛自我(有這個可能),否則都還是在靠譜的范圍內(nèi),專家的平均水平肯定比普通人要高。這個概率優(yōu)化可能使得1%的犯錯率降低到0.1%甚至更低,比如用藥咨詢這個領(lǐng)域,可以約束讓大模型不要發(fā)散,只根據(jù)給到的知識語料進行回答,而知識語料都來自于醫(yī)學專家。

小模型可以控制訓練成本,針對行業(yè)的知識等進行定向優(yōu)化,不需要全知全能的小學生,而要某個領(lǐng)域頂尖的博士生。比如物理學方向的研究,是可以把很多常規(guī)的知識記憶這些交給AI,需要的時候詢問提取即可,讓研究員可以專注在AI無法完成的部分。

總的來說,生成式AI現(xiàn)階段處于一個比較尷尬或者說是實際表現(xiàn)和期望很不符的狀態(tài),這里面泡沫很大,短期內(nèi)大家可能很難看到某個AI應用爆發(fā)式普及,但可能在水面之下,有一些細分領(lǐng)域的AI機會在生長中,進度可能是by年更新的。

直接to C的消費級產(chǎn)品機會難度太大,完全從0去打造一款產(chǎn)品,除非是有很大的顛覆式創(chuàng)新,否則難以跟行業(yè)既有玩家去抗衡,而期望生成式AI帶來顛覆式創(chuàng)新,現(xiàn)階段不太現(xiàn)實,AI改變了一些,但也沒有改變很多。

反而是to B的領(lǐng)域我認為會更有可能跑出來,to B的領(lǐng)域?qū)τ谌诵欠浅?粗氐?/strong>,把一些例如前面說的用藥指南、知識查詢這類的解放出來給AI去完成,有機會可以提高20%左右的人效。這樣的話,就會切得非常細,很有可能最后是一些幾十人規(guī)模小公司跑出來,能夠完成商業(yè)化閉環(huán),大廠要做這個事情的話人效太低了。

以上是我對現(xiàn)階段生成式AI的一些理解,分享給大家。

本文由 @李明Bright 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于CC0協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!