突遭下架,“國服最強”開源模型將何去何從?
阿里通義千問QwenLM代碼在GitHub下架引發(fā)信任危機,在開閉源方向選擇上,阿里云積極開源,但仍面臨變現難題。大模型價格戰(zhàn)爆發(fā),技術與市場需求脫節(jié),商業(yè)化充滿不確定性。
2024年下半年,國產AI大模型并不好過。
近期,AI代碼類應用cursor發(fā)布,因其強大的編程功能,一時風頭無兩;緊接著openAI又于9月12日發(fā)布了最新模型chatGPT o1,在邏輯推理和編程能力上又提升到一個全新級別,可以說擁有了真正的通用推理能力,國際AI領域的競爭日益激烈。
同樣在9月,號稱“國服最強”的開源大模型通義千問QwenLM全系列代碼在github(全球最大的開源代碼托管平臺之一)被下架,包括開源新王Qwen2.0在內的項目在訪問時全部404。不僅引發(fā)了從業(yè)者對開源模型穩(wěn)定性的信任危機,也暴露出國產大模型在商業(yè)化道路上的困境。
Part.1?下架風波,回應敷衍
“團隊沒有跑路,就是github org被無端端flag,所以你們看不到內容,我們已經在聯系官方目前也不知道原因?!?/p>
阿里高級算法專家,通義千問團隊負責人林俊旸在事件發(fā)生后迅速在社交平臺辟謠。
但這樣的回應并沒有讓AI相關從業(yè)者們滿意。在此之前,他們中的一些人剛經歷過Runway從HuggingFace上刪庫跑路的風波。Runway以Stable Diffusion系列聞名,一夜之間把自家開源模型清空,讓無數正在使用該模型的開發(fā)者陷入停擺。
雖然目前github上QwenLM模型代碼已經恢復,但對于事件的原因,通義千問團隊并沒有再做出任何回應。對于開源模型的項目,是否會再次受制于類似事故,從業(yè)者們更加茫然和悲觀。
開源是阿里通義大模型的重要戰(zhàn)略。
阿里云CTO周靖人曾在公開論壇表示:“開發(fā)者的反饋和開源社區(qū)的生態(tài)支持,是通義大模型技術進步的重要助力?!?/p>
大模型的訓練和迭代成本極高,絕大多數的AI開發(fā)者和中小型企業(yè)無法負擔。從這角度上來看,通義大模型的「全模態(tài)、全尺寸」開源戰(zhàn)略,長期沉淀的良好口碑為其贏得了一眾鐵粉。
每有開源動作都會被熱切的開發(fā)者們早早蹲守。截止2023年10月,阿里云旗下開源社區(qū)“魔塔”已有超過2300個模型,開發(fā)者超過280萬,模型下載數破億。阿里最新推出的開源模型QWen2系列更是風靡全球,其中Qwen2-72B更是在發(fā)布后短短兩個小時,就沖上了Huggingface開源大模型排行榜之首,隨后又衛(wèi)冕全球最權威的開源模型測試榜單之首。而阿里最新季度業(yè)績披露,通義千問開源模型下載量已突破2000萬。
通義大模型的開源之舉,打破了海外閉源大模型對國內開發(fā)者們的制約。就像阿里云CTO周靖人所說,“阿里云的初衷不是把模型攥在自己手上去商業(yè)化,而是幫助開發(fā)者,開源的策略與阿里云的初心完全一致。”在他看來,要在AI創(chuàng)新技術與模型層出不窮的當下,開源是“最佳也是唯一的途徑”。
Part.2?開源VS閉源,誰是贏家?
在大模型時代開啟之時,開源和閉源就一直爭論不休。
百度創(chuàng)始人李彥宏就曾在今年4月舉行的百度AI開發(fā)者大會上宣稱“開源模型會越來越落后?!彪S后,李彥宏在內部講話中也對開源模型的局限性表達了明確的看法——雖然開源模型獲取和使用便利,但商業(yè)化應用中卻往往遭遇GPU使用率低、推理成本高等問題。而互聯網圈另外一位大佬周鴻祎則表示:“我一直相信開源的力量?!?/p>
拋開行業(yè)大佬之間的口水戰(zhàn),開源和閉源,兩種截然不同的開發(fā)方式在當今的大模型發(fā)展中各有千秋。
從陣營上看,開源模型如meta的Llama系列、斯坦福的Alpaca、國內的阿里通義大模型等展現了社區(qū)驅動的快速進步和創(chuàng)新。而以OpenAI的GPT系列、Anthropic 的Claude大模型、百度的文心大模型、華為的盤古大模型等都選擇了閉源的形式,保持著技術領先和商業(yè)應用的優(yōu)勢。
開源模式促進了大模型技術的共享與創(chuàng)新,而閉源模式則保障了商業(yè)利益和技術優(yōu)勢,為大模型的商業(yè)化提供了支持。
有從業(yè)者聲音認為,從模型側來講,開源模型當前還是稍遜于閉源模型。但隨著更多開源模型的迭代,開源的能力也在快速跟上。比如通義大模型Qwen2.5模型性能已經全面趕超GPT-4 Turbo。
“從模型質量上來看,開源模型由于其代碼的公開性,更容易在社區(qū)得到測試和改進;但閉源模型在研發(fā)時,模型的數據語料質量、豐富程度以及算力規(guī)模,團隊的算法能力和背后強大的資金支持等因素,保證了閉源模型的高質量輸出?!?/p>
上述從業(yè)者也提到,數據安全對于大模型來說非常重要,訓練時會牽涉到用戶的隱私數據,抓取也可能存在攻擊性數據。開源模型因為要開放給更多用戶,在安全和隱私方面會更加重視,安全專家可以進行代碼審查,及時發(fā)現并修復潛在的安全風險;而閉源模型因為其代碼不公開,有專業(yè)的安全團隊進行安全防護和漏洞修復,可以減少由于外部攻擊導致的安全隱患。在業(yè)內人士看來,開源和閉源并非二元對立的關系。
Part.3?通義千問,路在何方?
比起開源和閉源之爭,如何實現商業(yè)化才是各家大模型當前急需解決的難題。
縱觀阿里通義大模型的體系,可以分為大模型底座和應用端產品模型兩個層面。2022年9月,達摩院發(fā)布“通義”大模型系列,打造業(yè)界首個AI底座。經過一年多的技術爆發(fā),通義大模型已經從初代升級至2.5版本。為了滿足不同計算資源需求和應用場景,通義團隊還推出了參數規(guī)模從5億到1100億的八款大語言模型,以及包含了多個面向不同應用場景的模型,如Qwen-VL(視覺理解大模型)、Qwen-Audio(音頻理解大模型)等。
除了底層大模型的研發(fā),通義團隊在應用端產品也卯足了勁。在去年10月的阿里云云棲大會上,CTO周靖人一口氣發(fā)布了八款產品模型:包括通義靈碼(智能編碼助手)、通義智文(AI閱讀助手)、通義聽悟(AI工作學習助手)、通義星塵(個性化角色創(chuàng)作平臺)、通義點金(智能投研助手)、通義曉蜜(智能客服助手)、通義仁心(個人健康助手)、通義法睿(AI法律顧問)。同時,通義千問正式上線了APP,所有用戶都可通過“通義APP”直接體驗最新模型能力;開發(fā)者可以通過網頁嵌入、API/SDK調用等方式,將上述所有模型集成到自己的AI應用和服務中。
基于通義大模型的開源屬性,商業(yè)化更是一個復雜的挑戰(zhàn)。
「科技新知」梳理下來,目前大模型的商業(yè)化模式大致可分為四類。從C端市場來看:一是直接提供API接口,用戶通過按量使用來收費;二是大模型賦能產品帶來的需求與價格增長,如chatGPT、Midjourney等產品的付費使用。從B端市場來看,一是AI功能帶來的流量增長,進而收取廣告費用;二是通過AI對企業(yè)內部賦能,幫助企業(yè)降本增效,如文心大模型接入百度系產品,幫助產品提效。
目前看來,阿里似乎是在ToB和ToC的商業(yè)化道路上同時摸索前行。2023年4月,阿里巴巴宣布所有產品未來將接入“通義千問”大模型,進行全面改造。而在企業(yè)賦能上,阿里云把從飛天云操作系統、芯片到智算平臺的“AI+云計算”這些AI基礎設施和通義大模型能力向所有企業(yè)開放,未來每一個企業(yè)既可以調用通義千問的全部能力,也可以結合企業(yè)自己的行業(yè)知識和應用場景,訓練自己的企業(yè)大模型。同時,通義靈碼、通義智文、通義聽悟等在內的八款產品模型,也受到了不少C端用戶的肯定。
變現之路尚未明朗,AI大模型的價格戰(zhàn)卻已經打響。今年5月以來,字節(jié)、阿里、百度、智譜AI等多家國內大模型廠商均調整了旗下大模型產品的定價策略,通義千問主力模型Qwen-long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。
這也深層次反應了大模型廠商在技術、市場和戰(zhàn)略等多方面的競爭到來。從商業(yè)化的角度來說,純粹的價格戰(zhàn)能在短期吸引用戶,形成頭部的虹吸效應,但長期選擇上,沒有技術創(chuàng)新作為支撐,難以形成持久的競爭優(yōu)勢。
大模型落地應用想象空間巨大,但落地難度同樣不小。例如,將大模型直接應用于具體場景,比如醫(yī)療健康或法律咨詢領域時,實際操作的挑戰(zhàn)便顯現出來。
在降本增效的大背景下,B端客戶在選擇大模型時也會更加注重成本和收益。如何通過細分市場企業(yè)精準定位市場需求,提供針對性解決方案,也是通義大模型在商業(yè)化布局中需要深思的。
而在C端市場,對于大多數消費者來說,AI技術的實用性尚未達到不可或缺的地步,各家應用的功能目前也并非不可替代。
這是通義大模型商業(yè)化的困境,也是多數AI大模型企業(yè)的難題。
作者丨余寐?編輯丨蕨影
本文由人人都是產品經理作者【科技新知】,微信公眾號:【科技新知】,原創(chuàng)/授權 發(fā)布于人人都是產品經理,未經許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協議。
- 目前還沒評論,等你發(fā)揮!