大,就聰明嗎?論模型的“尺寸虛胖”

0 評(píng)論 2702 瀏覽 2 收藏 11 分鐘

本文深入探討了模型參數(shù)與實(shí)際性能之間的關(guān)系,揭示了Dense和MoE架構(gòu)的本質(zhì)差異,以及它們?cè)谫Y源調(diào)度和計(jì)算效率上的不同表現(xiàn)。

你可能刷過(guò)這樣的新聞:

一個(gè)只有 27B 參數(shù)的 Gemma-3,竟和 671B 參數(shù) DeepSeek V3 不相上下。世界又要變天了

后面,可能還帶個(gè)圖,像這樣:

Gemma:我 27B

這種“技術(shù)奇跡” ,總被媒體反復(fù)包裝成“一夜變天” ,但其實(shí)并不新鮮:

  • 大模型說(shuō):我參數(shù)更大、上限更高。
  • 小模型說(shuō):我表現(xiàn)差不多,推理還便宜。
  • 廠商都在說(shuō)自己贏了,讀者卻越來(lái)越搞不懂這到底在比什么。

細(xì)究起來(lái),這表面是在做模型對(duì)比,實(shí)則是兩種語(yǔ)言體系在雞同鴨講,而參數(shù)恰成了“最容易理解、但最容易誤導(dǎo)”的數(shù)字,如同:用人口數(shù)量,來(lái)判斷足球水平。

我想借著這個(gè)話(huà)題,來(lái)聊聊幾個(gè)核心問(wèn)題:

  • 為什么參數(shù)量大 ≠ 實(shí)際效果強(qiáng)?
  • Dense 和 MoE 到底是怎么一回事?
  • “看起來(lái)很大”的模型,到底動(dòng)用了多少能力?
  • 在大模型持續(xù)擴(kuò)張的趨勢(shì)下,小模型還有哪些“后發(fā)機(jī)制”?

大,不一定“聰明”

我們說(shuō)“參數(shù)量大 ≠ 實(shí)際效果強(qiáng)”,不是在否定參數(shù)的意義,而是在拆一個(gè)經(jīng)常被誤用的判斷標(biāo)準(zhǔn)。最常見(jiàn)的誤區(qū),就是把不同類(lèi)型的模型,拉到同一個(gè)坐標(biāo)軸上用參數(shù)量做對(duì)比:而它們,本就沒(méi)有可比性。

Gemma-3 是 Dense 架構(gòu),也就是稠密模型,它的全部 27B 參數(shù)在使用中都會(huì)被激活,全部參與計(jì)算,屬于“全員出戰(zhàn)”的結(jié)構(gòu)。

DeepSeek V3 是 MoE 架構(gòu)(Mixture of Experts),也就是混合專(zhuān)家模型。它的總參數(shù)量高達(dá) 671B,但每次推理只會(huì)激活其中一小部分專(zhuān)家網(wǎng)絡(luò),實(shí)際參與計(jì)算的大約是 37B。剩下的大多數(shù)參數(shù)處于“待命狀態(tài)”。

Dense VS MoE

你看到的是 671B vs 27B,但模型實(shí)際調(diào)用的是 37B vs 27B:這看上去體量懸殊,實(shí)則差別不大。所以說(shuō),參數(shù)比較本身沒(méi)問(wèn)題,問(wèn)題在于不能混著比。

當(dāng)然了,在同一架構(gòu)內(nèi)(比如 Dense 對(duì) Dense),參數(shù)依然是判斷能力上限的重要指標(biāo);但跨架構(gòu)直接對(duì)比參數(shù)數(shù)量,得出的“誰(shuí)強(qiáng)誰(shuí)弱”往往是錯(cuò)位的。

MoE 的由來(lái)

接著回來(lái)說(shuō)說(shuō)參數(shù):參數(shù)的增加能帶來(lái)“規(guī)模效應(yīng)”——也就是能力的非線性躍遷。因此,各家模型才持續(xù)堆大,從 GPT-2 到 GPT-3,再到 PaLM、Gemini、Qwen,每一代都在沖上限。

只不過(guò),Dense 架構(gòu)的增長(zhǎng)曲線實(shí)在太“正經(jīng)”了。隨著參數(shù)規(guī)模增大,算力成本也得不斷翻翻,幾乎沒(méi)有優(yōu)化空間。當(dāng)參數(shù)飆升到幾千億、上萬(wàn)億時(shí),一輪訓(xùn)練就要燒掉上千萬(wàn)美元,硬件和能源的門(mén)檻也迅速被拉高。模型越大,訓(xùn)練成本越高,硬件要求越嚴(yán),能做的人越來(lái)越少。

MoE 的到來(lái),正是為了在不炸成本的前提下,繼續(xù)擴(kuò)容。

MoE 并不是哪個(gè)廠商的獨(dú)門(mén)絕技,而是淵源已久。早在1991年, Michael I. Jordan 和 Geoffrey E. Hinton 就提出這個(gè)思想。只不過(guò)當(dāng)時(shí)受限于工程能力,難以真正落地。直到2017年,Google 的 Jeff Dean 團(tuán)隊(duì)將 MoE 應(yīng)用于 LSTM 架構(gòu),訓(xùn)練出了一個(gè) 137B 參數(shù)的模型,參數(shù)規(guī)模巨大,但計(jì)算開(kāi)銷(xiāo)卻沒(méi)有爆表,這一嘗試也正式為大模型擴(kuò)容打開(kāi)了新路。

Adaptive Mixtures of Local Experts

2020年,Google 推出結(jié)合 Transformer 架構(gòu)的 Switch Transformer,參數(shù)量飆升至 1.6 萬(wàn)億。這并不是為了炫數(shù)字,而是為了驗(yàn)證一個(gè)核心概念:參數(shù)可以很多,但不需要每次都全部激活。只要調(diào)度得當(dāng),就能在控制計(jì)算成本的同時(shí),獲得更高的模型容量。 這也徹底改變了大模型的設(shè)計(jì)邏輯,從“每個(gè)參數(shù)都得上場(chǎng)”,變?yōu)椤白寣?duì)的專(zhuān)家在對(duì)的時(shí)刻出場(chǎng)”。

國(guó)內(nèi)最早大規(guī)模落地 MoE 架構(gòu)的,是“悟道”團(tuán)隊(duì)(北京智源研究院),2021年,他們訓(xùn)練了一個(gè) 1.75 萬(wàn)億參數(shù)的模型,并自研了 FastMoE 框架,重寫(xiě)了底層調(diào)度邏輯,才支撐起這種超大規(guī)模的訓(xùn)練任務(wù)。自此,MoE 架構(gòu)逐漸成為工業(yè)級(jí)大模型的主流形態(tài)之一,Google PaLM、Mistral-8x22B、阿里的 Qwen-MoE 等也陸續(xù)采用類(lèi)似方案。

DeepSeek 則做出了一些「本土創(chuàng)新」,比如引入“細(xì)粒度專(zhuān)家”機(jī)制,把原本的大模塊進(jìn)一步細(xì)分,提升了專(zhuān)家的專(zhuān)業(yè)性;同時(shí)設(shè)計(jì)了“共享專(zhuān)家”組件,用于捕捉底層通用知識(shí),減少冗余,也提升了多任務(wù)之間的表現(xiàn)一致性。這些改進(jìn)一方面減輕了算力壓力,另一方面也有效緩解了傳統(tǒng) MoE 常見(jiàn)的問(wèn)題,比如:路由不穩(wěn)定、風(fēng)格漂移、知識(shí)碎片化等。

DeepSeek MoE

但也正是 DeepSeek 的出色表現(xiàn),帶來(lái)了一些新的誤解。比如,不少人將“MoE”簡(jiǎn)單等同于“更聰明”“更先進(jìn)”,反過(guò)來(lái)認(rèn)為 Dense 模型因?yàn)轶w積小就一定弱。這其實(shí)是一個(gè)需要澄清的觀念偏差。MoE 和 Dense,本質(zhì)上只是兩種不同的資源調(diào)度策略,是否采用 MoE,并不能決定一個(gè)模型是不是“聰明”。真正決定智能水平的,仍然是模型的訓(xùn)練質(zhì)量、架構(gòu)合理性、任務(wù)適配能力。

有關(guān) MoE 的另一個(gè)誤解是“用不到的專(zhuān)家,不占資源”。正相反,在 MoE 架構(gòu)中,雖然每次只激活少數(shù)專(zhuān)家,但所有參數(shù)依然必須常駐顯存,真正部署起來(lái)的硬件負(fù)擔(dān)一點(diǎn)都不輕。因此,對(duì)于私有部署同性能模型來(lái)說(shuō),MoE 顯卡成本會(huì)高出很多。

小,也可以“聰明”

聰明,不一定靠“大”。

人可以靠后天努力提升能力,小模型也能成長(zhǎng),比如通過(guò)知識(shí)蒸餾(Knowledge Distillation):讓小模型參考大模型的答案,并模仿它處理任務(wù)的方式。它的本質(zhì)仍然是“看答案”,但不是死記答案,而是學(xué)會(huì)答題的思路和節(jié)奏。

模型蒸餾

整個(gè)過(guò)程通常是這樣的:

  1. 大模型先跑一輪任務(wù),生成高質(zhì)量參考輸出,比如說(shuō)「五年急轉(zhuǎn)彎,三年弱智吧」;
  2. 小模型拿這些答案來(lái)學(xué)習(xí),但重點(diǎn)不在“復(fù)制結(jié)果”,而是在模仿—— 學(xué)它怎么理解問(wèn)題、怎么組織信息、怎么一步步得出結(jié)論。

需知:蒸餾并不是“把大模型壓縮成小模型”,而是把聰明的部分提煉出來(lái)、遷移過(guò)去,保留了方法論(而不是復(fù)制粘貼參數(shù))。

比如 DeepSeek-R1 的蒸餾版 —— DeepSeek-R1-Distill-Qwen-32B,就是一個(gè)很典型的例子:雖然參數(shù)縮小了一個(gè)數(shù)量級(jí),但在多個(gè)任務(wù)上的表現(xiàn)依然接近,甚至在一些結(jié)構(gòu)化輸出上更穩(wěn)定。

可見(jiàn),聰明不是大模型的特權(quán),是訓(xùn)練出來(lái)的本事。

寫(xiě)在最后

模型的對(duì)比,不是參數(shù)拉踩,不是看誰(shuí)的數(shù)字更大、名字更響。

MoE 架構(gòu)的出現(xiàn),是為了讓大模型在成本可控的前提下繼續(xù)擴(kuò)容;而知識(shí)蒸餾,則讓小模型有機(jī)會(huì)承接大模型的能力,用更輕的體積完成更多的任務(wù)。它們分別指向兩個(gè)方向,但都在回答同一個(gè)問(wèn)題:如何更高效地使用資源。

所以,真正值得關(guān)注的,不是模型有多大,而是它能不能把事辦好、辦穩(wěn)、辦漂亮。

畢竟,“大”不一定代表聰明。

本文由人人都是產(chǎn)品經(jīng)理作者【賽博禪心】,微信公眾號(hào):【賽博禪心】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來(lái)自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 目前還沒(méi)評(píng)論,等你發(fā)揮!
专题
12731人已学习15篇文章
知识付费是内容赛道上的一块高地,有着上百亿的市场规模。本专题的文章分享了关于对知识付费的观点。
专题
12084人已学习12篇文章
精细化运营、抓住老用户、提升用户复购,则将是品牌需要着重留意的地方。本专题的文章分享了提升复购率的N种方法。
专题
15993人已学习12篇文章
数据中台是处于业务前台和技术后台的中间层。本专题的文章分享了如何搭建数据中台。
专题
34417人已学习23篇文章
不懂心理学,怎么懂你的用户;不懂你的用户,又怎么做好产品的设计和运营。
专题
13497人已学习11篇文章
本专题的文章以To G领域为例,从产品经理的角度,分享TO G产品设计指南。