速遞|李彥宏最新內(nèi)部講話:十個大模型認知誤區(qū) —— 從大模型競爭、開源模型效率到智能體趨勢

0 評論 1104 瀏覽 1 收藏 4 分鐘

李彥宏在最新的內(nèi)部講話中分享了他對大模型技術的深刻見解,涵蓋了大模型競爭、開源模型效率和智能體趨勢等多個方面。

近日,百度創(chuàng)始人&CEO 李彥宏在和員工交流中詳談了他對大模型的 10 個判斷,覆蓋話題包括大模型競爭、開源模型效率以及智能體趨勢等。例如,大模型間的差距在縮小嗎?大模型技術已經(jīng)接近天花板了嗎?為什么說商業(yè)化模型更有性價比?

以下是根據(jù)這場內(nèi)部分享整理的主要內(nèi)容,enjoy~

01. 外界對大模型有相當多的誤解。每個新模型發(fā)布,都要和GPT40做比較,在榜單上分數(shù)差不多、甚至單項超過,但這并不表明和最先進的模型就沒有差距了。

02. 模型之間的差距是多維的,不僅有能力差距,還有成本、推理速度的差距。有些模型雖能達到同樣效果,但成本更高、推理速度更慢,還是不如先進模型。

03. 真正衡量大模型能力的是,在具體應用場景中,是否滿足了用戶需求、有沒有產(chǎn)生價值的增益。

04. 大模型的天花板很高,今天做到的和理想狀況差得還非常遠,所以模型要不斷快速迭代、更新和升級。要能幾年、十幾年如一日地投入,不斷滿足用戶需求,降本增效,模型之間的差距就會越來越大。

05. 在一個完全競爭的市場環(huán)境中,不要覺得領先 12~18 個月是個很短的時間,只要能永遠領先競爭對手 6 個月,你就贏了。

06. 模型除了能力效果之外,還要看效率。效率上開源模型是不行的,閉源模型準確講應該叫商業(yè)模型,有無數(shù)用戶分攤研發(fā)成本、分攤推理的機器資源和 GPU,GPU的使用效率是最高的。

07. 以前用開源的 Linux,已經(jīng)有了電腦,所以用 Linux 是免費的,成本低;但這在大模型時代不成立,大模型推理是很貴的,開源模型不會送算力,還得自己買設備,解決不了算力高效利用的問題。

08. 大模型應用的發(fā)展階段,一開始是 Copilot,然后是 Agent 智能體,最主要的是它有了自主性,能自主使用工具、反思、自我進化。這種自動化程度再發(fā)展,就會變成 AIWorker,能夠獨立完成各方面的工作。

09. 現(xiàn)在智能體的熱度開始上來了,但到今天為止,智能體還不是共識,像百度這樣把智能體作為大模型最重要的戰(zhàn)略和發(fā)展方向的公司并不多。

10. 為什么強調(diào)智能體?因為智能體的門檻確實很低。很多人不知道怎么把大模型變成應用,而智能體是一種非常直接、高效、簡單的方式,在模型之上構建智能體相當方便。

本文由人人都是產(chǎn)品經(jīng)理作者【江天 Tim】,微信公眾號:【有新Newin】,原創(chuàng)/授權 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請關注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!