OpenAI o1草莓模型:AI安全了,但看起來AI大模型公司更危險(xiǎn)了
OpenAI的o1草莓模型標(biāo)志著AI推理能力的飛躍,可能使AI大模型更昂貴且難以實(shí)現(xiàn)。這一進(jìn)步雖鞏固了AI行業(yè)的未來,卻給AI大模型公司帶來挑戰(zhàn),它們可能難以承擔(dān)高昂成本,面臨被市場淘汰的風(fēng)險(xiǎn)。
假設(shè)o1草莓模型最終表現(xiàn)和發(fā)布的信息完全一致,然后回發(fā)生什么呢?
一、AI大模型更貴了
從披露的數(shù)據(jù)來看,我們可以認(rèn)為Scaling Law有效,不過這次不是堆數(shù)據(jù)而是堆機(jī)器和優(yōu)化算法。
這意味著AI大模型顯然會(huì)更貴,也更難,先是需要更多的機(jī)器,這導(dǎo)致更貴,然后靠人來做畫龍點(diǎn)睛,這導(dǎo)致更難。
(上面文章里面有這圖)
這可以和過去Sam Altman的言論結(jié)合起來看,Sam Altman發(fā)過的驚人言論包括需要募集七萬億美金等等,投資去解決電力問題等,兩者倒是匹配。
二、AI安全了,但AI大模型公司危險(xiǎn)了
AI公司的風(fēng)險(xiǎn)有無數(shù)個(gè),但AI作為一個(gè)行業(yè),其風(fēng)險(xiǎn)只有1個(gè),就是AI不好用。
如果Scaling Law有效,那不管多貴,都意味著這個(gè)行業(yè)解決問題的價(jià)值在增加,所以這個(gè)行業(yè)安全了。大概率不會(huì)再變成80年代人人喊騙子的局面,行業(yè)的安全意味著AI大時(shí)代基本會(huì)確定打開。
但很多AI大模型公司是真的危險(xiǎn)了。他們變成了應(yīng)用不是應(yīng)用,模型不是模型的一種公司。
跟進(jìn)跟不起,不管是機(jī)器還是人才儲(chǔ)備,顯然的要想干好模型不單下一步貴,并且一段時(shí)間會(huì)越來越貴。
不跟進(jìn),那自己的高估值拿什么做支撐呢?定位是什么呢?同時(shí)這種推理的進(jìn)展覆蓋正是他們本來做的那部分工作。
三、沖擊波從專業(yè)人員開始
從報(bào)道看Level2確實(shí)能過去,那我們之前所有對(duì)Level2影響的預(yù)判將在短期成為現(xiàn)實(shí)。之前我們這么解讀五級(jí)模型:
上層應(yīng)用實(shí)現(xiàn)的程度和先后可以參照OpenAI對(duì)后續(xù)AI進(jìn)階劃分進(jìn)行推測(cè),下述為參照OpenAI分階并補(bǔ)充系統(tǒng)型超級(jí)應(yīng)用信息后整理而來。
階段1:聊天機(jī)器人。AI能夠與人對(duì)話,然后純粹看對(duì)話內(nèi)容你不能分辨它是人還是AI。對(duì)話的時(shí)候AI可能有幻覺并胡說八道,但邏輯自洽。當(dāng)前就處在這個(gè)階段。這個(gè)時(shí)候垂直型應(yīng)用處于只能出現(xiàn)類似Copilot這類純粹的生產(chǎn)力工具,讓ERP等進(jìn)入下一代這類事情只可能在極小的領(lǐng)域中出現(xiàn),處于萌芽期。
階段2:推理并解決真實(shí)問題的機(jī)器人。當(dāng)你給AI真實(shí)的問題,它能夠自行推理,甚至找你要它解決問題所欠缺的信息或者資源,然后真正的能夠代替人解決問題。到了這個(gè)階段,所有白領(lǐng)工作基本就不需要人了。在這個(gè)階段各種不牽涉現(xiàn)實(shí)物理世界的事情基本可以全部用AI來解決,大量系統(tǒng)型超級(jí)應(yīng)用會(huì)在企業(yè)領(lǐng)域、部分行業(yè)比如律師出現(xiàn)。
階段3:AI智能體。全面感知物理世界并且能夠采取行動(dòng)解決問題,相當(dāng)于把階段2的能力從虛擬數(shù)字世界擴(kuò)展到真實(shí)物理世界。到了這個(gè)階段所有體力工作就不需要人了,街道、家庭、公司隨處都是機(jī)器人。這個(gè)階段新式系統(tǒng)型超級(jí)應(yīng)用擴(kuò)展到物理空間,具身機(jī)器人會(huì)充斥在各個(gè)生成生活的環(huán)節(jié)。
階段4:創(chuàng)新者。AI能夠組合現(xiàn)有要素在特定的方向上完成創(chuàng)新,比如他會(huì)創(chuàng)造性的根據(jù)面條和動(dòng)物捏合出來用各種栩栩如生的動(dòng)物。到了這個(gè)階段,現(xiàn)在200人的公司估計(jì)只要不到10個(gè)人,像產(chǎn)品經(jīng)理這樣需要?jiǎng)?chuàng)新能力去定義產(chǎn)品的角色AI也能夠承擔(dān)了。這個(gè)階段現(xiàn)有大部分可見的崗位全部完成AI對(duì)人的置換。系統(tǒng)型超級(jí)應(yīng)用會(huì)遍布在各行各業(yè)。
階段5:組織者。這時(shí)候AI能夠負(fù)責(zé)組織協(xié)調(diào)的工作,承擔(dān)AI之上的AI角色(過去高管和CEO的角色)。到這里每個(gè)我們現(xiàn)在看到的領(lǐng)域也都有了一個(gè)自己的AlphaGo,這個(gè)AlphaGo的專業(yè)性和能力遠(yuǎn)超過去人類同時(shí)具有通用性,大多企業(yè)里不需要管理人員,而是全部被AI接管。
這個(gè)五級(jí)分類可以看成是一種AI宏大敘事類比過去的大同社會(huì)等。
現(xiàn)在Level2眼看要實(shí)現(xiàn)了,那首先是Level2的影響會(huì)發(fā)生,其次在于后面的是不是也是靠譜的,而不是單純的想象?
推理這事的影響方向非常清楚:白領(lǐng)包括高級(jí)白領(lǐng)乃至科研人員受沖擊最大。
不過如果幻覺問題沒解決,那人類還能略有喘息。
四、智能飛輪看起來要轉(zhuǎn)起來了
如果說推理能力確實(shí)能破局(當(dāng)前并非是大成,而是一種破局),那AI真的可以做積極的未來展望。不是因?yàn)镺penAI多牛,關(guān)鍵是我們總說的智能飛輪要啟動(dòng)了。
當(dāng)年AlphaGo為什么后來水平進(jìn)展極其快?
核心就在于它轉(zhuǎn)起來一個(gè)叫智能飛輪的東西。
形象講就是AI能夠伺候AI。
AlphaGo的領(lǐng)域太垂直了,圍棋太特殊了,所以過去幾乎只有AlphaGo能干這事。
可如果推理能力搞定了,情況會(huì)有大變化。
在數(shù)據(jù)和算法兩個(gè)環(huán)節(jié),AI逼近能夠伺候自己的邊緣。而這會(huì)解鎖AI的進(jìn)化速度。
說起來是個(gè)有點(diǎn)悲傷的故事,從智能飛輪、從AI進(jìn)化的角度看,人才是最大障礙,人負(fù)責(zé)的越少,AI負(fù)責(zé)的越多,那智能飛輪轉(zhuǎn)的越快。
而推理能力最關(guān)鍵的就在于削弱人在AI進(jìn)展過程中的角色,這反倒是會(huì)加速AI的進(jìn)展。
五、AI應(yīng)用的黃金時(shí)代
琢磨事一直反復(fù)說個(gè)話題,AI會(huì)因?yàn)橛?jì)算模式的遷移導(dǎo)致大量的應(yīng)用重做,過去我們把它總結(jié)成從功能中心式計(jì)算遷移到角色中心式計(jì)算。用老黃的圖就是:
但這種重做在過去有點(diǎn)像構(gòu)思閃電戰(zhàn)缺內(nèi)燃機(jī),推理的窗口一打開,各種新現(xiàn)實(shí)就不是空想,而是需要更為認(rèn)真的構(gòu)思了。
這種認(rèn)真的構(gòu)思關(guān)鍵是需要前瞻性,順著AI脈絡(luò)的前瞻性。
當(dāng)年基于摩爾定律有這么一種思維模式:
我先把程序按照未來的計(jì)算量開發(fā)好,那怕現(xiàn)在慢點(diǎn),然后我就休假去了,什么也不用干,等我回來過去不怎么好用的復(fù)雜圖形用戶界面就好用了。
現(xiàn)在AI的脈絡(luò)在呈現(xiàn)類似摩爾定律的確定性,所以認(rèn)真思考是指基于這種脈絡(luò)的前瞻性思考。
六、小結(jié)
不管怎么樣AI革命先革自己也是有點(diǎn)出乎意料的,過去大量AI的算法人員在這種進(jìn)展下承壓可能比裝修人員大的多。當(dāng)年那些深度學(xué)習(xí)算法,是不是很快AI就可以干的比人更好?
當(dāng)然這還只是發(fā)布會(huì)上的一些零散信息,它的真正潛力還需要一些先鋒應(yīng)用來驗(yàn)證。值得期待。
本文由人人都是產(chǎn)品經(jīng)理作者【琢磨事】,微信公眾號(hào):【琢磨事】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評(píng)論,等你發(fā)揮!