大白話告訴你,什么是模型微調(diào)

3 評論 961 瀏覽 2 收藏 5 分鐘

這篇文章將用通俗易懂的語言帶你走進(jìn)模型微調(diào)的世界,揭示它是如何將一個廣泛學(xué)習(xí)的預(yù)訓(xùn)練模型,通過精細(xì)調(diào)整,使其在特定領(lǐng)域達(dá)到更高的專業(yè)水平。

模型微調(diào)其實就是讓一個非常博學(xué)的通才,著重再學(xué)習(xí)某一個領(lǐng)域的知識,進(jìn)而變成專才的這么一個過程。

非常博學(xué)的通才,就是指的預(yù)訓(xùn)練模型,也叫通用大模型或基座模型,比如最出名的GPT,還有谷歌的BERT,百度的ERNIE,其實都是預(yù)訓(xùn)練大模型。

這些預(yù)訓(xùn)練模型經(jīng)過了全量的訓(xùn)練,學(xué)習(xí)了世間非常多的知識信息,幾乎就是一本百科全書。

而且預(yù)訓(xùn)練模型也已經(jīng)掌握了很多通用的知識模式,比如語言結(jié)構(gòu),語義特征等,擁有了識別用戶意圖,生成文本或圖片、視頻等能力。

你可以理解預(yù)訓(xùn)練模型已經(jīng)是一個本科生的水平了,你需要通過微調(diào),讓預(yù)訓(xùn)練模型學(xué)習(xí)更多特定專業(yè)領(lǐng)域的知識,讓它在某個領(lǐng)域里達(dá)到研究生甚至是博士生的水平,滿足在不同特定領(lǐng)域里的實際應(yīng)用需求。

之所以叫模型微調(diào),重點就是在一個“微”字上,相較于預(yù)訓(xùn)練大模型在訓(xùn)練時的海量數(shù)據(jù)學(xué)習(xí),模型微調(diào)用到的數(shù)據(jù),簡直就是九牛一毛。

相應(yīng)的模型微調(diào)所需要的時間和算力資源也會少很多,可以比較高效、且低成本的訓(xùn)練出滿足業(yè)務(wù)需求的模型進(jìn)行后續(xù)的評估部署及應(yīng)用。

比如要通過微調(diào)進(jìn)行影評的情感分類,首先需要選擇合適的預(yù)訓(xùn)練模型,是文本類的,還是視頻類的,像影評的話,就可以選擇一個文本類的預(yù)訓(xùn)練模型,例如BERT。

然后要在保證數(shù)據(jù)質(zhì)量的前提下,收集準(zhǔn)備盡可能多的影評數(shù)據(jù),并將收集到的數(shù)據(jù)集按照8:1:1或7:2:1的比例,劃分為訓(xùn)練集、驗證集、測試集。

訓(xùn)練集可以用來進(jìn)行模型訓(xùn)練,驗證集可以在訓(xùn)練過程中,根據(jù)驗證集結(jié)果和模型性能,調(diào)整模型的一些參數(shù),最終達(dá)到模型可用狀態(tài),測試集用來最終評估模型的效果。

驗證集和測試集雖然都是用來看模型效果的,但還是有區(qū)別的,因為驗證集在模型訓(xùn)練過程中,起到了驗證結(jié)果,調(diào)整參數(shù)的作用,所以說單純的看驗證集結(jié)果,模型實際的效果可信但又不完全可信,所以還是不能少了測試集。

數(shù)據(jù)集搞定后,接下來就是準(zhǔn)備進(jìn)行模型訓(xùn)練了,訓(xùn)練前需要選用合適的微調(diào)策略,比如是全量微調(diào),還是部分微調(diào),是采用LoRA微調(diào)還是SFT微調(diào),具體的技術(shù)細(xì)節(jié)就不做探討了,只需要知道模型微調(diào)策略的本質(zhì),其實就是調(diào)整預(yù)訓(xùn)練模型的參數(shù),通過訓(xùn)練獲得一版符合業(yè)務(wù)要求的模型。

模型微調(diào)時,模型一般會進(jìn)行多輪訓(xùn)練,訓(xùn)練過程中需要根據(jù)驗證集的損失、準(zhǔn)確率等指標(biāo)調(diào)整模型超參數(shù)(包括學(xué)習(xí)率、迭代次數(shù)、批量大小、正則化參數(shù)、優(yōu)化器選擇等)。

模型訓(xùn)練后,就可以用測試集來驗證模型的實際效果,評估模型的最終性能。

以上就是模型微調(diào)的一個大概步驟,具體的技術(shù)細(xì)節(jié)沒有做詳細(xì)闡述,感興趣的同學(xué)可以自行學(xué)習(xí)一下。

本文由 @向上的小霍 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于CC0協(xié)議。

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 模型微調(diào)

    來自北京 回復(fù)
  2. 確實用大白話講的很清楚,看下來也能有個一知半解。

    來自廣東 回復(fù)
    1. 哈哈 技術(shù)細(xì)節(jié)還得再研究

      來自北京 回復(fù)