讓AI當你的辦公助手,還差幾步?
在AI大模型出現(xiàn)之后,AI與辦公軟件的融合,也逐漸成為了趨勢之一,比如近日釘釘展示了AI功能,WPS也在加緊研發(fā)“WPS AI”。那么生成式AI如果想走入辦公軟件,過程中可能會遇到哪些阻力呢?一起來看看作者的分析和解讀。
辦公軟件正在從工具變成“助手”甚至“同事”。
在阿里的通義千問大模型面世一周后,4月18日,阿里釘峰會上釘釘總裁葉軍(不窮)現(xiàn)場演示了釘釘?shù)乃膫€AI應(yīng)用場景為:群聊、文檔、視頻會議及應(yīng)用開發(fā)。表示釘釘與大模型融合場景正在測試中,將在相關(guān)安全評估完成上線。此次會上,釘釘?shù)腁I功能被搬到現(xiàn)場進行展示。
Notion接入ChatGPT能力的NotionAI早已上線,微軟和谷歌也分別宣布了Microsoft 365 Copilot,以及Docs和Gmail的生成式AI能力。本周,國內(nèi)對標Microsoft 365最緊密的WPS也宣布正在研發(fā)“WPS AI”,各類辦公軟件。
NotionAI的生成內(nèi)容
在協(xié)同辦公SaaS軟件中,最早引入ChatGPT的NotionAI已經(jīng)把生成式AI能力開放出來。不過,在C端和B端上,推出AI產(chǎn)品的方向和難度有很大不同。有SaaS行業(yè)內(nèi)人士對虎嗅表示,“不同公司在AI能力上線方面的考慮肯定有所不同,微軟要推出一個C端AI產(chǎn)品可能很容易,但要上線B端產(chǎn)品,則需要考慮很多問題,包括用戶接受度、軟件安全性、定價,甚至是ESG等問題?!?/strong>
那么生成式AI要走進辦公軟件中,需要解決哪些挑戰(zhàn)呢?
一、內(nèi)容安全性或成生成式AI最大阻力
生成式AI在內(nèi)容安全性方面,以及隱私保護方面都面臨著巨大的監(jiān)管挑戰(zhàn)。目前各國對生成式AI的監(jiān)管力度正在加強,從意大利數(shù)據(jù)保護局第一個禁用ChatGPT以后,法國、西班牙有關(guān)部門也對ChatGPT展開了調(diào)查。美國商務(wù)部下屬的國家電信與信息管理局,則正在調(diào)查對于企業(yè)和監(jiān)管機構(gòu)如何確保人工智能系統(tǒng)是值得信賴、合法及合乎道德。
“產(chǎn)品有很多,成熟一個上線一個”葉軍對釘釘AI產(chǎn)品的上線規(guī)劃非常有信心,但他表示目前具體的上線時間,還要等待監(jiān)管部門的審批。葉軍說:“AI生成的內(nèi)容,不知道誰寫的,一分鐘生成無數(shù)條,可能一下子就會破壞整個網(wǎng)絡(luò)純潔的環(huán)境?!?/p>
4月11日,就在阿里通義千問發(fā)布會的同一天,國家互聯(lián)網(wǎng)信息辦公室下發(fā)了《生成式人工智能服務(wù)管理辦法(征求意見稿)》的通知。目前我國已經(jīng)出臺的AI相關(guān)監(jiān)管條例,包括《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》和《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,并均已開始生效。除此以外,還有一些分散在《民法典》、《數(shù)據(jù)安全法》、《網(wǎng)絡(luò)安全法》等法律法規(guī)中。
對于安全問題,OpenAI首席執(zhí)行官Sam Altman就在最近的一次公開講話中表示,隨著模型的能力越來越強,與之對應(yīng)的安全措施也需要增加。在GPT-4發(fā)布后,OpenAI一直致力于處理各種亟待解決的安全性問題。OpenAI的總裁兼聯(lián)合創(chuàng)始人Greg Brockman則發(fā)推稱,“OpenAI花了6個月的時間測試GPT-4,力圖讓這個AI更加安全?!?/p>
“AI其實是黑盒,是煉丹爐,煉出來什么不知道?!比~軍表示,AI生成的內(nèi)容,有些是不可控的,對于生成的結(jié)果還要做二次處理,二次處理相關(guān)的機制和安全審批的能力,比UGC(User Generated Content,用戶生成內(nèi)容)更難控制。
“通常情況下,AI技術(shù)供應(yīng)商,對于AI生成的不安全內(nèi)容也負有責任?!庇^韜中茂律師事務(wù)所合伙人王渝偉律師告訴虎嗅,AI技術(shù)供應(yīng)商,包括深度合成服務(wù)提供者和技術(shù)支持者,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對其規(guī)定了較高的監(jiān)督管理義務(wù)和完善數(shù)據(jù)和技術(shù)管理規(guī)范義務(wù),若因未盡到這些義務(wù),AI生成內(nèi)容不符合法律規(guī)定,則需要承擔一定的法律責任。
“生成式大模型的不準確問題,可能會在很多不容馬虎的細節(jié)問題上出錯?!痹诎踩珕栴}上,某AI大模型業(yè)內(nèi)人士以文生圖的Diffusion(擴散式)模型給虎嗅舉了一個例子,擴散式生成模型的核心是通過逐步“擴散”噪聲信號來生成所需數(shù)據(jù),同時不需要使用顯式的先驗概率分布。也就是通過“猜”把一張模糊的圖片一步步銳化成一張清晰的圖片。而在這個“清晰化”的過程中,很難把控圖片的精細之處。比如五星紅旗上有幾顆星,地圖的邊界線究竟在哪等在細節(jié)上要求非常嚴格的問題,對于AI來說,都是很難保證正確的。由于文生文模型也采用了讀上一個詞“猜”下一個詞的機制,因此很難在細節(jié)上把控安全性。
就安全問題,虎嗅從某國內(nèi)大型語言模型(LLM)創(chuàng)業(yè)公司處了解到,目前國內(nèi)已有一些基于大模型的Chatbot(聊天機器人)產(chǎn)品,但多數(shù)都受到安全問題限制,正在按要求自查,并等待審批。
二、大模型是底座,還需要小模型
不穩(wěn)定,是生成式AI天生的缺陷,當面對C端用戶時,AI只是一個聊天機器人,不穩(wěn)定的因素在于內(nèi)容安全性。在大模型與用戶之間添加一個過濾機制即可,很多傳統(tǒng)的關(guān)鍵詞過濾技術(shù)都可以解決這種問題,在AI技術(shù)加持下,也可以用一個過濾不安全內(nèi)容的AI小模型實現(xiàn)更好的過濾效果。
B端用戶的業(yè)務(wù)壁壘在于其所在領(lǐng)域或行業(yè)中的實踐經(jīng)驗、技能和知識行業(yè),也就是人們常說的KnowHow,而要讓AI大模型在實際業(yè)務(wù)中發(fā)揮作用,則需要利用這些行業(yè)型KnowHow對AI進行專門的訓(xùn)練。在這方面,AI業(yè)界和應(yīng)用產(chǎn)業(yè)似乎已經(jīng)有了一些共識:AI大模是底座,是導(dǎo)航,而要真正把AI能力落地到業(yè)務(wù)中,還需要專門訓(xùn)練聚焦行業(yè)的中、小模型。
AI大模型在面對B端用戶時,生成的內(nèi)容不僅要安全,還要可靠,要對用戶的業(yè)務(wù)負責,甚至每個字都容不得馬虎。不過,AI大模型的效率提升對于B端用戶來說,吸引力很大,在很多垂直行業(yè)都已有先驅(qū)廠商開始探索了。
在工業(yè)領(lǐng)域,西門子日前剛剛宣布將和微軟合作,借助OpenAI的ChatGPT幫助軟件開發(fā)人員和自動化工程師使用自然語言輸入生成PLC(可編程邏輯控制器)代碼,從而減少時間成本并降低錯誤率。同時,這些能力還有助于維護團隊以更快的速度識別錯誤,并逐步生成解決方案。
“利用AI編寫PLC代碼肯定會在流程上減少工程師的工作量。”上海優(yōu)也信息科技有限公司首席科學(xué)家郭朝暉認為,利用AI編寫PLC代碼在工業(yè)上很有可行性,但從安全角度出發(fā),在代碼生成之后,還應(yīng)該有人類參與檢查。
作為一個電腦程序,ChatGPT發(fā)布以來,編程能力就一直受到工程師們的重點關(guān)注,微軟在GitHub中也推出了AI編程助手Copilot。同為“寫代碼”,在工業(yè)領(lǐng)域自然也已經(jīng)有PLC工程師嘗試用ChatGPT編寫代碼。一位PLC工程師告訴虎嗅,“目前來看ChatGPT的PLC編碼能力不比普通工程師弱,但對于輸入prompt(提示詞)的理解能力還有優(yōu)化空間,且生成的最終代碼有些需要人工修改?!?/p>
不過,郭朝暉也認為ChatGPT要在工業(yè)領(lǐng)域推廣,還需要解決工程師使用習慣和數(shù)據(jù)基礎(chǔ)等問題,同時在工業(yè)設(shè)備中使用ChatGPT的條件也還有需要進一步優(yōu)化。
在另一個嚴肅行業(yè)醫(yī)療領(lǐng)域中,ChatGPT的應(yīng)用常被人認為更加馬虎不得。但研發(fā)醫(yī)療行業(yè)大模型的左手醫(yī)生團隊CEO張超認為,雖然醫(yī)療行業(yè)的內(nèi)容需要非常嚴謹,但是不同場景,對于生成式內(nèi)容的風險接受度也不同。“我們把醫(yī)療行業(yè)分成4個象限,對于生產(chǎn)式AI的風險,我們可以從這4個象限的角度來分析?!?/strong>
張超介紹說,這4個象限首先是以知識探索為目的的頭腦風暴象限,在這個象限中,是允許大膽出錯的,這個場景對正確信息的召回更重要。第二象限是文書處理類,這個場景中,AI需要做的就是歸納總結(jié),按圖索驥,出錯的概率不大,即使出錯也可以以較低成本更正,并且更正結(jié)果可以推動模型升級。第三象限是臨床決策類,臨床決策任務(wù)是一個比較特定的任務(wù),在這個場景中AI是醫(yī)生的助手,而AI生成的內(nèi)容,可以由醫(yī)生去把控風險。
“真正存在風險的是第四象限,就是在AI給沒有鑒別能力的人提供服務(wù)的場景中?!睆埑J為,雖然這個場景中存在一定的風險,但是可以通過對AI生成內(nèi)容溯源的方式來規(guī)避風險,“我們可以讓基于文檔嵌入(Document Embedding)等手段,大模型在圈定的知識范圍內(nèi)給出答案,通過縮小服務(wù)邊界來控制風險?!?/strong>
當然,這種形式可能又會使患者陷入“信息獲取繭房”,不過張超表示,新技術(shù)肯定會存在局限性,但是落地、研發(fā)團隊的任務(wù)就是想辦法找更好的場景去避免這種局限性,讓技術(shù)能夠為這個場景產(chǎn)生更大的價值。
三、定價難題怎么解
AI辦公軟件市場化的另一個難題,那就是定價。
在工作當中,一個生產(chǎn)力相同的同事,和只能幫忙查資料、整理文案的助理,在工資方面肯定是不一樣的。AI在用戶業(yè)務(wù)中的定位自然也直接影響到它的定價問題。對于用戶來說,“AI助理”的價格后續(xù)相當于購買SaaS工具,自然是能低就低。但如果是“AI同事”,那對它投入幾何,就要考察它的執(zhí)行能力了。
目前國外付費的生成式AI服務(wù)以O(shè)penAI和Midjourney兩家最為知名。Midjourney的收費標準有兩種,一種是月費,一種是按圖計費。月費是23美元一個月,計次則是8美元用200次。ChatGPT Plus的收費標準是20美元一個月,每3小時可以使用25次GPT-4模型。
此外,OpenAI最新模型GPT-4的API接口采取按token收費的政策,已公布的GPT-4的API價格是純文本輸入每1k個prompt token定價0.03美元,每1k個completion token定價0.06美元。默認速率限制為每分鐘40k個token和每分鐘200個請求。
百度在發(fā)布文心一言之后,也對合作伙伴公布了名為文心千帆的云服務(wù)產(chǎn)品,據(jù)參加文心千帆發(fā)布會的百度客戶透露,文心千帆的定價為——推理服務(wù)調(diào)用以0.012元/1000 tokens收費,按調(diào)用輸入輸出總字數(shù)付費。
在這方面,阿里云還沒有公布相關(guān)的定價政策,不過葉軍向虎嗅透露,釘釘?shù)亩▋r將參考Midjourney和OpenAI,“我們肯定比他們(Midjourney和OpenAI)定價低一點,我們得承認(技術(shù))還是有一些差距,不能定太高的價格,而且普惠一點,前期對特定用戶,甚至有一定的時長的優(yōu)惠。”同時,在釘峰會上葉軍還重點強調(diào)了具備AI能力的釘釘個人版。并提出未來的“個體戶”可能會存在“一個人+一群AI助手”的新模式。
AI的生產(chǎn)力在圖像創(chuàng)意領(lǐng)域已經(jīng)得到了很多專業(yè)人士的認可,某知名媒體產(chǎn)品設(shè)計總監(jiān)告訴虎嗅,“一個Stable Diffusion模型訓(xùn)練好了,能省出幾個人的成本。”
對于B端業(yè)務(wù)來說,如果AI真的可以節(jié)省幾個人的話,那么它的定價范圍會更加寬泛。不過,在創(chuàng)意文案和對文字有要求的業(yè)務(wù)中,AI目前的生成能力可能只能替代初級人類員工的工作。美版今日頭條Buzzfeed的AI撰稿機器人Buzzy,就被網(wǎng)友質(zhì)疑其撰寫的文章中,有五分之一的采用了幾乎相同的開頭。
雖然葉軍在釘釘利用AI生成文案的案例演示過程中,反復(fù)表示“通義千問生成的內(nèi)容比我寫得好”,但是仔細看過內(nèi)容之后還是會發(fā)現(xiàn)釘釘生成的內(nèi)容很“AI”,會出現(xiàn)一些華而不實的口水詞堆砌情況。
釘釘生成的推廣文案內(nèi)容
不過,AI能力也是會在不斷迭代中進步的,葉軍告訴虎嗅,“目前已經(jīng)有很多釘釘?shù)纳疃群献饔脩籼岢隽嗽囉靡庀?,未來最先開放AI能力試用的行業(yè)也可能會是教育?!?/p>
作者:齊健,編輯:陳伊凡;出品:虎嗅科技組
來源公眾號:虎嗅APP(ID:huxiu_com),從思考,到創(chuàng)造
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @虎嗅 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載
題圖來自 Unsplash,基于 CC0 協(xié)議
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
AI當辦公助手還存在一定差距,大致還需以下幾個步驟:
1. 提高人工智能的學(xué)習和理解能力。目前的AI對語言的理解還不及人,需要更強大的數(shù)據(jù)和算法來提高自然語言處理的能力,才能更好地理解人的意圖和需求。
2. 擁有更廣博的世界知識。AI助手需要有廣泛的常識知識和對人工知識的理解(比如日常辦公流程),才能給人以準確高效的幫助。這需要豐富的訓(xùn)練數(shù)據(jù)和強大的知識圖譜作為支持。
3. 增強交互體驗。 DAG應(yīng)該擁有更人性化的交互方式、友好的回復(fù)表達和聊天功能,給人以親切順暢的用戶體驗。這需要語言生成、個性表達等方面的提高。
4. 具備更強的推理和解決問題的能力。AI需要能深入理解問題和相關(guān)背景知識,進行復(fù)雜的推理,得到最佳解決方案。這需要建立復(fù)雜的知識網(wǎng)絡(luò)并具備強大的推理機制。
5. 提供更豐富多樣的服務(wù)。DAG不僅需要提供基本信息查詢、日程管理等服務(wù),還需要更廣泛的功能,如文件管理、項目協(xié)作、資源調(diào)配等復(fù)雜服務(wù),來滿足人們的實際需求。
綜上,AI當真正的辦公助手還需要突破幾個關(guān)鍵步驟,包括提高學(xué)習理解能力、擁有更豐富知識、增強交互體驗、具備更強推理能力、提供更豐富服務(wù)等。需要AI在多個方面取得大幅進步,才能真正達到人工智能辦公助手的要求和水平。這還需要一定的時間和技術(shù)積累。
AI智能進入辦公領(lǐng)域是一個很讓人期待的事情,但同時也應(yīng)該做好更充分的準備