ChatGPT的創(chuàng)業(yè)機會
2023年9月9—10日,人人都是產品經理聯(lián)合騰訊大講堂舉辦的【2023產品經理大會(北京站)】完美落幕。宜創(chuàng)科技CEO宜博老師為我們帶來《ChatGPT的創(chuàng)業(yè)機會》為題的分享,本文為演講內容實錄。目前大會回放已上架,戳此購買,即可收看回放:https://996.pm/7gX2B
今天和大家分享的內容為《ChatGPT的創(chuàng)業(yè)機會》,將和大家分享大模型應用的真實案例,同時會理清背后的技術脈絡和行業(yè)現(xiàn)狀,最后分享一些自己對當前創(chuàng)業(yè)機會的想法。
一、介紹N個AI真實開發(fā)案例
我們在過去兩個月里做了20多個AI案例,每一個都是真實案例。大家總覺得大語言模型有幻覺,其實這是大語言模型AI預測算法的本質。但是怎么找到某些場景,即用大語言模型,又要實現(xiàn)100%準確的效果,是每個創(chuàng)業(yè)者都可以思考的方向。
1. 某行業(yè)領域服務機器人場景及落地
這個例子,是農業(yè)企業(yè)做的生成豬飼料配比的服務機器人,通過對話,給養(yǎng)殖戶提供豬飼料配方,準確率可以達到100%。
第一步,通過多輪對話從養(yǎng)殖戶那里獲得豬的信息,例如豬的品種、豬有多重等。第二步,拿著這些信息去后臺查詢這種豬需要的營養(yǎng)量。最后,通過算法計算,獲得準確的豬飼料配方,返回給養(yǎng)殖戶。同時,我們還做了多意圖識別,如果想詢問某個產品的營養(yǎng)含量、產品價格,結果都能實現(xiàn)。
這個案例解決了一個行業(yè)難題。一直以來,我們都在朝著精細化養(yǎng)殖的方向努力,但是養(yǎng)殖戶沒有能力從大量的資料中查閱中得知豬飼料配比,這個項目就解決了這個問題。這個項目獲得了農業(yè)部會議上四個院士的高度贊賞。
2. 某銀行需求及落地案例
第二個案例來自上市銀行。每次上市公司年報分析出來,大家都會問很多問題。一家商業(yè)銀行提供了他們最常被問到的150個問題和回答。每一個問題里都包含著很多行業(yè)的“黑話” ,比如對公貸款、零售貸款等。而這些概念背后對應了很多指標,比如增長率、收入比等,指標要轉換成公式,公式結果要整理成報告。
在此之前,其實已有其他金融大語言模型公司嘗試做了一下,但出來的數(shù)據都不能保證正確率,開始我們采用了大模型結合向量搜索的方式嘗試,也不能保證100%準確。后來我們用大模型加工作流的方式解決了這個問題。
第一步,把數(shù)據抽取出來存到數(shù)據庫里。第二步,用大模型做分詞,也就是從用戶輸入問題的內容里提取出各種指標。第三步,查詢指標和指標公式,讓大模型融合生成數(shù)據庫查詢,生成準確的計算結果。
最后,將準確的計算結果再次輸入大模型,做一輪知識融合,可以轉化API為領域機器人進行全域問題查詢,實現(xiàn)100%數(shù)據準確。
3. 某KMS機器人集成飛書釘釘場景
第三個案例,來自于醫(yī)院醫(yī)療設備的維護廠商。原本的維護方式存在文檔繁多、格式復雜、需要實時翻譯、需要定位圖文結果二次校驗等問題。而我們的案例很好地解決了KMS知識庫交互復雜的問題。
我們將各種格式、各種模態(tài)、各種語言的文檔都傳入向量數(shù)據庫里,通過配置流程的方式形成。在使用過程中,機器人會先用多輪對話的方式,獲得當前故障的多級錯誤碼等信息?;貜偷慕Y果通過圖文等形式展示,自動翻譯,并索引原文位置。
4. 某代碼生成需求及落地
這個案例的需求來自于國內一個API廠商。針對一句話描述,生成一個代碼片段,直接嵌入使用。
5. 工作流自動代碼生成案例及介紹
通過自然語言描述一個工作流步驟,生成一個工作流,并可以馬上執(zhí)行。
6. ChatBI 人工智能報表場景及落地
ChatBI,是用自然語言生成報表,特別受到運營同學、產品同學以及老板的喜歡。因為老板看到的傳統(tǒng)報表內容很有限,如果想看到額外維度的報表,所花費的時間可能要等產品技術同學做幾天甚至一個禮拜,現(xiàn)在則一句話就能快速看到報表結果。
7. 電子郵箱AI助手:一句話整理電子發(fā)票并發(fā)送給財務報銷
借助電子郵箱AI助手,你可以輸入一句話對郵箱郵件做處理,可以做電子發(fā)票的附件整理,也可以做多輪對話,比如對和某一個客戶之間的關系做分析和總結;電子郵箱AI助手甚至可以幫忙生成郵件話術。
二、了解GPT時代的底層邏輯
在了解完落地的案例之后,給大家介紹一下GPT時代背后的底層邏輯。
1. 什么是參數(shù)與向量
在傳統(tǒng)IT系統(tǒng)里關鍵詞搜索“狗”這個關鍵詞,是搜索不到“金毛”這個詞的。但在向量時代,“金毛”這個詞有一個特征值是“類型”,“金毛”的類型是狗,所以當你搜索“狗”,便能夠查到“金毛”對應的內容。
又比如,想找長毛的大型犬。由于向量數(shù)據庫里記錄了各種狗的毛長特征值、體型特征值,所以你可以搜索到結果。如下圖所示,這就構成一個二維的特征空間,特征分別是毛長、體型,這里每一個特征值就對應是大模型一個參數(shù)。
現(xiàn)在“金毛”這個詞在 GPT-3 里有 1750 億個參數(shù),也就是有 1750 億個特征值。這個值是通過知識大量的文本關聯(lián)和訓練、神經網絡多層的訓練來得到的。GPT-4 共有 1.8 萬億個參數(shù),GPT-5 號稱有 100 萬億個參數(shù),也就是說,一個詞在 GPT-5 里未來會有 100 萬億個特征值。
2. 大模型訓練的三要素:數(shù)據集數(shù)量、訓練強度、參數(shù)
大模型訓練有三個要素。第一個要素是數(shù)據量,比如 GPT-3 有 45 個 TB 的數(shù)據集容量,也可以用tokens表示,比如 GPT-4 在約 13 萬億 tokens 上訓練。第二個要素是訓練強度,Train FLOPs,比如是 5E 的 24 次方。第三個要素是參數(shù)值,比如 13B,175B 等等。
人的大腦大概有 150 億個神經元,有大概 100 萬億的神經突觸。人的神經突觸對應的就是參數(shù)量,可以想見,GPT-5 的參數(shù)量將會和人的大腦的參數(shù)量基本一致。而現(xiàn)在 GPT-4 只有 1. 8 萬億,可以想象一下,明年的這個時候,我們世界又會來迎來一個很大的變化,因為 GPT-5 誕生了。
3. 大模型應用兩種開發(fā)方式
大模型的開發(fā)模式有兩種。
第一種叫做 pre-training + fine tuning + Prompt Engineer。
通俗的理解是,pre-training,即通識教育,相當于現(xiàn)在有一個孩子,你要教他認字、學算數(shù)、做推理。這個步驟產生的是基礎大模型。
第二個部分叫微調(Fine tuning),微調其實相當于大學的專業(yè)課,比如你是學法律的,你會接觸一些法律的條款、法律名詞;你是學計算機的,就會知道什么叫計算機語言。
第三個部分,是職業(yè)訓練。假設一個法律學生大學畢業(yè)了,這個時候,他是不能直接去打官司的,他必須要經過職業(yè)訓練,才能保證專業(yè)度。什么叫專業(yè)度?就是準確率。這個時候,AI應用的準確率要達到商用級別,也就是超過人的準確率,所以這需要 prompt engineer,這就是 PE 的重要性。
第二種開發(fā)模式,其實是可以繞過fine tuning去做PE,而后落地一個AI APP。有一個好的基礎大模型,加上一個好的PE,就能做出一個好的應用。
4. 人機協(xié)同三種模式
人機協(xié)同三種模式。第一種叫AI Embedded模式,在某一個環(huán)節(jié)里去調用大模型。第二種叫AI Copilot模式,每個環(huán)節(jié)都可以跟大模型進行交互。第三種是AI Agent模式,任務交給大模型,大模型即可自行計劃、分解和自動執(zhí)行。
5. 現(xiàn)在預訓練,微調一個大模型需要多少成本
3 月份的時候,訓練一個GPT-3. 5大概需要 1200 萬美金。但是最近英偉達新發(fā)布的數(shù)據,HGX A100 用 4000 個GPU,在4天里訓練出 175B 的大模型;如果用 HGX H100 的話,則只需要一天,其效率比 HGX A100 了四倍,成本降低了十倍以上。所以未來訓練模型的成本會越來越低,而模型會變得越來越大?,F(xiàn)在大家自己做一個 6B 的小模型,或許人民幣幾百萬即可搞定,而這放在 3 月份的時間節(jié)點,只會讓人覺得不可思議。
6. ChatGPT的歷史
ChatGPT 的發(fā)布引爆了時代,而背后可以歸溯到 GPT-3,GPT-3是一個重要節(jié)點,因為GPT-3出現(xiàn)了涌現(xiàn)能力,比如上下文學習。Codex 涌現(xiàn)出一個能力叫 COT思維鏈,隨后InstructGPT有了人類反饋學習,接著再有ChatGPT、GPT-4 等。
AGI 是 General AI 通用人工智能 ,如何理解 AGI 的核心?我打個比方,AGI 就像會72變的孫悟空。以前牛魔王需要訓練很多妖精去組成一個軍隊,一個蛇精需要修煉300 年,一個熊精需要修煉500年。而現(xiàn)在有個基礎大模型,它會72變,拔一把猴毛,吹一口Prompt,就可以幻化出天兵天將,這就是通用大模型。
7. 涌現(xiàn)
GPT-3 開始發(fā)現(xiàn)有涌現(xiàn)能力,這區(qū)別于以往人類歷史上的所有模型,涌現(xiàn)里有很重要的一個能力,叫“知識推理”,涌現(xiàn)是指系統(tǒng)的數(shù)量變化導致行為的質量變化,像計算、翻譯、上下文學習、思維鏈等,都是涌現(xiàn)能力。
沒有涌現(xiàn)能力的大模型都是復讀機。若要有涌現(xiàn)能力,參數(shù)值的數(shù)量是必要非充分條件,比如上下文學習能力,沒有100b的參數(shù)值,是不可能出現(xiàn)涌現(xiàn)的。但是你的模型有了100B的參數(shù),卻不一定能有上下文學習涌現(xiàn)出來。
GPT-4擁有了更多的涌現(xiàn)能力,它能做情緒感知,能讀懂幽默,看懂人類的笑話,能在沒訓練過的情況下,用圖形畫出一個獨角獸。這就是GPT-4涌現(xiàn)出的能力,包括音樂、代碼、數(shù)學、具身交互、解釋行為、情緒感知等。
8. 大模型奇點
西方宗教里,亞當夏娃偷吃了“知識之果”,開始學會知識推理,進而學會萬事萬物。我們現(xiàn)在創(chuàng)造的大模型,它具備了知識推理能力,相當于已經“偷吃”了知識之果,未來可能我們人類能控制大模型的只剩下拔電源,這也是不少西方人對其感到恐懼的原因。
在陸奇的觀點里,人類掌控環(huán)境通過三個步驟,感知、思考、實現(xiàn)。對應信息、模型、行動。信息化就是信息由系統(tǒng)實現(xiàn),模型和行動還由人來實現(xiàn),數(shù)字化就是信息和模型都由系統(tǒng)來實現(xiàn),行動由人來實現(xiàn),比如抖音里你看什么內容已經不是人決定的,是模型,你只有決定看不看、看多久、劃不劃走的決定權。而智能化時代,我們進入了全新的范式拐點,信息、模型、行動都由系統(tǒng)來實現(xiàn)了。
所以未來十年,最重要的能力是學習使用大模型。
三、熟悉LLM時代Prompt Engineer開發(fā)范式
第一層:簡單Prompt的例子
即編寫一個提示詞(Prompt)去調用大模型,這是最簡單的形式,這里就不多贅述了。
第二層:Plugin
也就是用大模型插件(Plugin)去調各種API。
第三層:Prompt Engineering Workflow + OpenAI API
基于提示詞工程的工作流(workflow)編排。上文提到的AI應用就是基于工作流實現(xiàn)的。以ChatBI為例,通過編排工作流,定義如何獲取數(shù)據庫結構、如何寫Prompt、如何調大模型,實現(xiàn)全部自動化。只需要輸入一句話,就能沿著工作流自動執(zhí)行,輸出結果。
第四層:VectorDB集成
VectorDB包含著數(shù)據的特征值,現(xiàn)在最好的AI應用落地方案就是VectorDB,包括做知識庫、做客服機器人,這些都是VectorDB的應用。
第五層:AI Agents
現(xiàn)在這個概念特別火,最重要的邏輯就是讓大模型自己做遞歸。AI自己對任務進行拆解,再進一步遞歸、繼續(xù)拆解,直到有一步,AI可以將這個任務執(zhí)行,最后再將任務合并起來,往前遞歸回來,合并為一個工程。這就是Agent的原理。
第六層:領域模型Domain Model
專業(yè)模型為什么重要?大參數(shù)的基礎模型的訓練和推理成本是非常高的,而專業(yè)模型速度快、成本低、準確率高,因為你有行業(yè)的高質量數(shù)據,所以準確率高;進而可以形成數(shù)據飛輪,形成自己的競爭優(yōu)勢。
未來這個世界一定會由幾家大模型公司,再加上每家公司都得有自己的小模型,如果你的公司沒有小模型,那么你的公司將沒有存在價值。
四、可視化LLMOps助力AI創(chuàng)業(yè)10倍降本
1. 中國大模型時代痛點:應用層與模型層存在巨大的中間層鴻溝
現(xiàn)在的大模型時代存在很大的問題——不能用、不會用、用不起、不好用。
這也是我們做開發(fā)范式中間層框架的原因。我們做了500+機器人模板市場,模板下載開箱即用,也對接各類國內外大模型API,支持私有部署各類開源大模型,同時用戶可以定制Prompt Chain開發(fā),三步可視化配置,相當于做了一個無代碼版的 LangChain。
可以這么理解,產品經理可以在不需要任何編程的情況下把流程 workflow 搭建出來,搭建出來之后,產品經理可以把系統(tǒng)再集成到任何一個產品里。
我們也用 API 的方式將它集成在了各個 IM 里,在 IM 里加一個機器人,即可以變成一個新的小程序或者APP。所以在不需要算法工程師、不需要前后端工程師的情況下,我們可以在很短的時間內開發(fā)想要的 AI 應用。
我們想幫助企業(yè)構建數(shù)據飛輪。當有越多數(shù)據時,結果就會越準確;當結果越準確,就會有越多客戶選擇使用;當有越多客戶使用,我們就可以積累更多的高質量問答數(shù)據。這些問答數(shù)據一定要保存好,這是你未來的立命之本。
2. 向量處理全流程可視化
怎么處理向量?一般分這幾步——知識庫文件云盤管理、選擇切割方式及模型、可視化管理存儲和管理CRUD 向量數(shù)據庫、可視化追蹤TopK Fact 搜索結果、可視化對接大模型知識融合生成結果報表和自主定義文檔架構循環(huán)遍歷生成專業(yè)文檔。
五、 AI First第一性特性挖掘創(chuàng)業(yè)機會
AI First就是AI的第一性原理。在移動時代,08 年、10 年出現(xiàn) iPhone 和安卓的時候,你有想過 Mobile first誕生了什么應用嗎?當時是無法想象的。類比到今天也是如此,今天ChatGPT誕生了 ,你同樣無法想象 5 – 10 年之后,這個世界會被 AI 改變成什么樣子。
什么叫 AI first?AI 的第一性原理特性又是什么?我給大家總結了 5 條。
1. 對話文本
第一,泛化的文本對話能力;在此之前,所有的AI沒有辦法做角色扮演,也沒有辦法用一個AI去生成多種文檔,不能做到既生成文本、又生成代碼。
2. 向量處理(非結構化文本數(shù)據)
第二,向量處理;以前我們只能一一搜索,現(xiàn)在可以特征搜索。以前你需要將文檔打標簽結構化,現(xiàn)在只需要上傳并切割存儲就可以使用了。
3. 數(shù)據分析(非結構化數(shù)據、歸因分析、算法分析)
第三,非監(jiān)督的數(shù)據處理;以前的數(shù)據處理需要人去將數(shù)據歸因出來、算法歸因出來才能做處理?,F(xiàn)在有了大模型,可以自動根據數(shù)據得到數(shù)據建?;蛘咭?guī)則,進而自動開發(fā)出來軟件,也可以直接對數(shù)據做歸因分析。
4. 知識推理(具身智能)
第四,知識推理,也就是能夠將智能搭建為可行動的系統(tǒng)。我們可以看李飛飛老師在論文中舉的例子。
我們可以對機器人說一句話,比如把垃圾放到藍色的盒子里,把面包放到烤面包機里,或者打開維生素瓶子,這些語句機器人都能識別并執(zhí)行。比如詢問兩塊磚塊哪個更重,它會自己去進行規(guī)劃,搭建一個臺子,看看哪個磚塊滑得更遠;又或者我想把抽屜打開一半,機器人會把抽屜先全部拉開,測量到全距離后,再計算一半的距離,然后再把它合上一半距離。
5. AI Agent
第五,AI Agent。你可以用AI幻化為多個智能體,甚至能讓AI討論出一個具體的方案。
六 、如何迎接這一次創(chuàng)業(yè)浪潮
最后聊聊我個人對這次的創(chuàng)業(yè)浪潮的理解。
觀點1:未來的創(chuàng)業(yè)機會在中間層
首先,未來創(chuàng)業(yè)機會一定在中間層。美國已經沒有大模型的機會了,國內可能還有,但是機會也已經不多。
為什么不在應用層?因為應用層特別薄,只剩下 Chat UI 了,不需要你再去做設計界面等復雜的東西,它只有一個 Chat UI。但 UI 背后的部分是需要大家好好去設計的。
另外,應用層不是指應用本身,現(xiàn)在能實現(xiàn)端到端的應用應該是我們創(chuàng)業(yè)最大的方向。
觀點2:Chat+是一種新的計算平臺革命,所有行業(yè)都適合被改造一遍,也會誕生新的硬件平臺
第二,我們會有一個新的硬件平臺,可能是耳機、眼鏡等,然后這類硬件平臺可以用來替代手機。很快在未來,我們就能看到。
觀點3:大機器人時代的來臨
第三,大機器人時代來臨,或許LLM+成為機器人會從功能性進化到智能的底層OS。通用機器人加上通用大模型,可能徹底地改變人類的生產力方式。我在3月份曾經預測過,特斯拉推出了通用人形機器人,一定會自己做一個通用大模型。果不其然成立了x.ai。
此外,在未來,什么領域不會被GPT-X折疊?個人覺得首先,非虛擬的;其次,擁有私有數(shù)據和隱私數(shù)據的;再者,會念Prompt咒語的;最后,一定要有自己的專業(yè)/領域模型。
我們常常聽到這類表述,人間一天, AI一年。創(chuàng)業(yè)者到底要怎么做,是我們亟需思考的問題。
2011年我曾經畫過這張圖預測,每個象限里會都會誕生偉大的公司,人找數(shù)據誕生了谷歌和百度,人找人誕生了 Facebook 和微信,數(shù)據找人也一定會誕生,只是那個時候不知道什么,現(xiàn)在來看就是字節(jié)跳動的推薦算法。今天看到的,數(shù)據找數(shù)據,其實就是大模型。
這里再分享幾個Sam Altman的觀點。
“一個全新的摩爾定律可能很快就會出現(xiàn),即宇宙中的智能數(shù)量每18個月翻一番;”
因為AI被應用于勞動力中,“住房、教育、食物、衣服等,每兩年就便宜一半?!?/p>
正如黑格爾所說,“人類都是帶著恐懼和希望共同走進未來。”希望大家活在當下,做自己能做的事情。悲觀者永遠正確,樂觀者永遠前行。
大會直播回放
目前大會回放已上架,戳此購買,即可收看回放:https://996.pm/7gX2B
本文為【2023年產品經理大會(北京站)】 現(xiàn)場分享整理內容,由人人都是產品經理智囊團@左遷 整理發(fā)布。未經許可,禁止轉載,謝謝合作。
題圖來自大會現(xiàn)場
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
文章寫的很全面,這里提一個可能存在的刊誤:““金毛”這個詞在 GPT-3 里有 1750 億個參數(shù),也就是有 1750 億個特征值?!保瑔蝹€詞不可能有1750億個特征,transformer貌似最大是512維
文章寫的很全面,這里提一個可能存在的刊誤:““金毛”這個詞在 GPT-3 里有 1750 億個參數(shù),也就是有 1750 億個特征值?!保瑔蝹€詞不可能有1750億個特征,transformer貌似最大是512維
悲觀者永遠正確,樂觀者永遠前行。
數(shù)據找數(shù)據??