云原生是大模型“降本增效”的解藥嗎?
云原生技術(shù)的自動(dòng)化部署和管理、彈性伸縮等功能,可以很大程度上幫助大模型實(shí)現(xiàn)降本增效。那么,這個(gè)過(guò)程是如何實(shí)現(xiàn)的?有哪些挑戰(zhàn)還存在著?一起來(lái)看看本文的分享。
在過(guò)去一兩年里,以GPT和Diffusion model為代表的大語(yǔ)言模型和生成式AI,將人們對(duì)AI的期待推向了一個(gè)新高峰,并吸引了千行百業(yè)嘗試在業(yè)務(wù)中利用大模型。
國(guó)內(nèi)各家大廠在大模型領(lǐng)域展開(kāi)了激烈的軍備競(jìng)賽,如:文心大模型、通義千問(wèn)、混元大模型、盤(pán)古大模型等等,這些超大規(guī)模的模型訓(xùn)練參數(shù)都在千億以上,有的甚至超過(guò)萬(wàn)億級(jí)。
即便訓(xùn)練一次千億參數(shù)量模型的成本可能就高達(dá)數(shù)百萬(wàn)美元,但大廠們依然拼盡全力,除此之外也有很多行業(yè)企業(yè)希望擁有自己的專(zhuān)屬大模型。
對(duì)于企業(yè)來(lái)說(shuō),要想在大模型的競(jìng)爭(zhēng)中勝出,就必須充分利用算力,并且構(gòu)建高效穩(wěn)定的服務(wù)運(yùn)行環(huán)境,這就對(duì)IT基礎(chǔ)設(shè)施能力提出了更高的要求。
而云原生正是比拼的重要一環(huán)。云原生技術(shù)的自動(dòng)化部署和管理、彈性伸縮等功能,能夠有效提高大模型應(yīng)用效率并降低成本。
據(jù)Gartner預(yù)測(cè),2023年70%的AI應(yīng)用會(huì)基于容器和Serverless技術(shù)開(kāi)發(fā)。在實(shí)際生產(chǎn)中,越來(lái)越多的AI業(yè)務(wù),比如自動(dòng)駕駛、NLP等,也正在轉(zhuǎn)向容器化部署。
那么,云原生是如何幫助大模型降本增效,在這個(gè)過(guò)程中又遇到了哪些挑戰(zhàn)?
一、云原生成為大模型的標(biāo)配
近年來(lái),容器和Kubernetes已經(jīng)成為越來(lái)越多AI應(yīng)用首選的運(yùn)行環(huán)境和平臺(tái)。
一方面,Kubernetes幫助用戶(hù)標(biāo)準(zhǔn)化異構(gòu)資源和運(yùn)行時(shí)環(huán)境、簡(jiǎn)化運(yùn)維流程;另一方面,AI這種重度依賴(lài)GPU的場(chǎng)景可以利用K8s的彈性?xún)?yōu)勢(shì)節(jié)省資源成本。
隨著大模型浪潮的到來(lái),以云原生環(huán)境運(yùn)行AI應(yīng)用正在變成一種事實(shí)標(biāo)準(zhǔn)。
1. 彈性伸縮與資源管理
大模型訓(xùn)練往往需要大量的計(jì)算資源,而云原生環(huán)境通過(guò)容器化和編排工具可以實(shí)現(xiàn)資源的彈性調(diào)度與自動(dòng)擴(kuò)縮容。
這意味著在大模型訓(xùn)練過(guò)程中可以迅速獲取所需資源,并在任務(wù)完成后釋放資源,降低閑置成本。
2. 分布式計(jì)算支持
云原生架構(gòu)天然支持分布式系統(tǒng),大模型訓(xùn)練過(guò)程中的并行計(jì)算需求可以通過(guò)云上的分布式集群輕松實(shí)現(xiàn),從而加速模型收斂速度。
3. 微服務(wù)架構(gòu)與模塊化設(shè)計(jì)
大模型推理服務(wù)可以被分解為多個(gè)微服務(wù),比如預(yù)處理服務(wù)、模型加載服務(wù)和后處理服務(wù)等,這些服務(wù)能夠在云原生環(huán)境中獨(dú)立部署、升級(jí)和擴(kuò)展,提高系統(tǒng)的可維護(hù)性和迭代效率。
4. 持續(xù)集成/持續(xù)部署(CI/CD)
云原生理念強(qiáng)調(diào)快速迭代和自動(dòng)化運(yùn)維,借助CI/CD流程,大模型的研發(fā)團(tuán)隊(duì)能夠以更高效的方式構(gòu)建、測(cè)試和部署模型版本,確保模型更新的敏捷性。
5. 存儲(chǔ)與數(shù)據(jù)處理
云原生提供了多種數(shù)據(jù)持久化和臨時(shí)存儲(chǔ)解決方案,有助于解決大模型所需的大量數(shù)據(jù)讀取和寫(xiě)入問(wèn)題。
同時(shí),利用云上大數(shù)據(jù)處理和流式計(jì)算能力可以對(duì)大規(guī)模數(shù)據(jù)進(jìn)行有效預(yù)處理和后處理。
6. 可觀測(cè)性和故障恢復(fù)
在云原生環(huán)境下,監(jiān)控、日志和追蹤功能完善,使得大模型服務(wù)的狀態(tài)更加透明,遇到問(wèn)題時(shí)能更快地定位和修復(fù),保證服務(wù)高可用性。
總體而言,云原生架構(gòu)的諸多優(yōu)勢(shì)契合了大模型在計(jì)算密集、數(shù)據(jù)驅(qū)動(dòng)、迭代頻繁等方面的需求,能夠?yàn)榇竽P蛶?lái)成本、性能、效率等多方面的價(jià)值,因而成為大模型發(fā)展的標(biāo)配。
二、大模型對(duì)云原生能力提出新挑戰(zhàn)
盡管云原生對(duì)于大模型有著天然的優(yōu)勢(shì),但是面對(duì)LLM、AIGC這樣的新領(lǐng)域,依然對(duì)云原生能力提出了更多挑戰(zhàn)。
在訓(xùn)練階段,大模型對(duì)計(jì)算、存儲(chǔ)、網(wǎng)絡(luò)等基礎(chǔ)架構(gòu)的要求都更高。
規(guī)模上,要訓(xùn)練出具有廣泛知識(shí)和專(zhuān)業(yè)領(lǐng)域理解及推理能力的大語(yǔ)言模型,往往需要高達(dá)萬(wàn)卡級(jí)別的GPU集群和PB級(jí)的數(shù)據(jù)存儲(chǔ)以及TB級(jí)的數(shù)據(jù)吞吐。
此外,高性能網(wǎng)絡(luò)也將達(dá)到單機(jī)800Gbps甚至3.2Tbps的RDMA互聯(lián)。
性能方面,隨著模型體積和參數(shù)量的增長(zhǎng),單張顯卡已無(wú)法承載完整的模型。因此需要使用多張顯卡進(jìn)行分布式訓(xùn)練,并采用各種混合并行策略進(jìn)行加速。
這些策略包括數(shù)據(jù)并行、模型并行、流水線并行以及針對(duì)語(yǔ)言模型的序列并行等,以及各種復(fù)雜的組合策略。
在推理階段,大模型需要提供高效且穩(wěn)定的推理服務(wù),這需要不斷優(yōu)化其性能,并確保服務(wù)質(zhì)量(QoS)得到保證。
在此基礎(chǔ)上,最重要的目標(biāo)是提高資源效率和工程效率。一方面,持續(xù)提高資源利用效率,并通過(guò)彈性擴(kuò)展資源規(guī)模,以應(yīng)對(duì)突發(fā)的計(jì)算需求。
另一方面,要最優(yōu)化算法人員的工作效率,提高模型迭代速度和質(zhì)量。
由此可見(jiàn),大模型對(duì)云原生技術(shù)提出了新的能力要求:
一是,統(tǒng)一管理異構(gòu)資源,提升資源利用率。
從異構(gòu)資源管理的角度,對(duì)IaaS云服務(wù)或者IDC內(nèi)的各種異構(gòu)計(jì)算(如 CPU,GPU,NPU,VPU,F(xiàn)PGA,ASIC)、存儲(chǔ)(OSS,NAS, CPFS,HDFS)、網(wǎng)絡(luò)(TCP, RDMA)資源進(jìn)行抽象,統(tǒng)一管理、運(yùn)維和分配,通過(guò)彈性和軟硬協(xié)同優(yōu)化,持續(xù)提升資源利用率。
在運(yùn)維過(guò)程中,需要多維度的異構(gòu)資源可觀測(cè)性,包括監(jiān)控、健康檢查、告警、自愈等自動(dòng)化運(yùn)維能力。
對(duì)于寶貴的計(jì)算資源,如GPU和NPU等加速器,需要通過(guò)各種調(diào)度、隔離和共享的方法,最大限度地提高其利用率。
在此過(guò)程中,還需要持續(xù)利用云資源的彈性特征,持續(xù)提高資源的交付和使用效率。
二是,通過(guò)統(tǒng)一工作流和調(diào)度,實(shí)現(xiàn) AI、大數(shù)據(jù)等多類(lèi)復(fù)雜任務(wù)的高效管理。
對(duì)于大規(guī)模分布式AI任務(wù),需要提供豐富的任務(wù)調(diào)度策略,如Gang scheduling、Capacity scheduling、Topology aware scheduling、優(yōu)先級(jí)隊(duì)列等,并使用工作流或數(shù)據(jù)流的方式串聯(lián)起整個(gè)任務(wù)流水線。
同時(shí),需兼容Tensorflow,Pytorch,Horovod,ONNX,Spark,F(xiàn)link等各種計(jì)算引擎和運(yùn)行時(shí),統(tǒng)一運(yùn)行各類(lèi)異構(gòu)工作負(fù)載流程,統(tǒng)一管理作業(yè)生命周期,統(tǒng)一調(diào)度任務(wù)工作流,保證任務(wù)規(guī)模和性能。
一方面不斷提升運(yùn)行任務(wù)的性?xún)r(jià)比,另一方面持續(xù)改善開(kāi)發(fā)運(yùn)維體驗(yàn)和工程效率。
此外,在計(jì)算框架與算法層面適配資源彈性能力,提供彈性訓(xùn)練和彈性推理服務(wù),優(yōu)化任務(wù)整體運(yùn)行成本。
除了計(jì)算任務(wù)優(yōu)化,還應(yīng)關(guān)注數(shù)據(jù)使用效率的優(yōu)化。為此,需要統(tǒng)一的數(shù)據(jù)集管理、模型管理和訪問(wèn)性能優(yōu)化等功能,并通過(guò)標(biāo)準(zhǔn)API和開(kāi)放式架構(gòu)使其易于被業(yè)務(wù)應(yīng)用程序集成。
對(duì)于大模型還有一個(gè)主要能力,就是能夠在分鐘級(jí)內(nèi)準(zhǔn)備好開(kāi)發(fā)環(huán)境和集群測(cè)試環(huán)境,幫助算法工程師開(kāi)始執(zhí)行深度學(xué)習(xí)任務(wù)。
把端到端的 AI 生產(chǎn)過(guò)程通過(guò)相同的編程模型、運(yùn)維方式進(jìn)行交付。
結(jié)語(yǔ)
隨著大模型等AI技術(shù)的不斷發(fā)展,云原生技術(shù)將面臨一些新的挑戰(zhàn)和需求。例如,如何快速適應(yīng)新的開(kāi)源大模型訓(xùn)練方法,以及如何提高大模型推理性能并確保其質(zhì)量和穩(wěn)定性。
同時(shí),也需要關(guān)注一些前沿技術(shù)和創(chuàng)新能力,通過(guò)標(biāo)準(zhǔn)化和可編程的方式來(lái)集成,不斷迭代業(yè)務(wù)應(yīng)用,形成 AI+ 或 LLM+ 的新應(yīng)用開(kāi)發(fā)模式和編程模型。
但無(wú)論技術(shù)如何發(fā)展,為大模型提供快速、準(zhǔn)確、穩(wěn)定且成本可控的服務(wù),保證大模型訓(xùn)練和推理的成本、性能和效率,都將成為企業(yè)為其價(jià)值買(mǎi)單的根本。
來(lái)源公眾號(hào):科技云報(bào)到(ID:ITCloud-BD),云計(jì)算、網(wǎng)絡(luò)安全、人工智能、大數(shù)據(jù)、區(qū)塊鏈領(lǐng)域垂直新媒體。
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @科技云報(bào)到 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來(lái)自Unsplash,基于CC0協(xié)議。
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。
- 目前還沒(méi)評(píng)論,等你發(fā)揮!