一篇不是很枯燥的ChatGPT閑談

0 評論 5832 瀏覽 14 收藏 32 分鐘

ChatGPT中的GPT是什么?GPT3到ChatGPT又經(jīng)歷了哪些過程呢?本文作者對ChatGPT的發(fā)展過程進(jìn)行了總結(jié)分析,并分享了他關(guān)于ChatGPT的看法,看完這篇文章,相信你會對ChatGPT有更深度的了解。

這是一篇ChatGPT有關(guān)的文章,總共有三部分:先科普一下ChatGPT中的GPT是什么,然后介紹從GPT3到ChatGPT的過程,最后進(jìn)行一些個(gè)ChatGPT閑談。如果不想看技術(shù),可以直接跳到閑談。鑒于已經(jīng)有非常多的優(yōu)秀創(chuàng)作者進(jìn)行總結(jié)和分析,本文將會包含非常多的論文原文以及資源鏈接,都是值得一閱的好文,再次感謝這些優(yōu)秀的創(chuàng)作者們。

一、ChatGPT中的GPT是什么?

在很久很久以前(1982年那么久),深度學(xué)習(xí)模型中有一個(gè)非常經(jīng)典的模型叫做RNN,即Recurrent Neural Networks(循環(huán)神經(jīng)網(wǎng)絡(luò))[1]。RNN的出現(xiàn)是為了更好地處理序列信息,RNN隱藏層的值不僅受到當(dāng)前輸入的影響,還取決于上一次隱藏層的值。

比如:“我 愛 你”三個(gè)字,“愛”不僅僅是“愛”,還包含了“我”的語義信息。但是對于較長的序列或者句子,RNN的機(jī)制會出現(xiàn)梯度消失的問題,簡單說就是當(dāng)句子是:“我愛你中國,我愛你春天蓬勃的秧苗,我愛你秋日金黃的碩果,我愛你青松氣質(zhì),我愛你紅梅品格,我愛你家鄉(xiāng)的甜蔗,好像乳汁滋潤著我的心窩。”最后一個(gè)“心窩”已經(jīng)沒有辦法包含太多的第一個(gè)“我”的語義信息了。

而后,最早在計(jì)算機(jī)視覺里應(yīng)用的Attention機(jī)制被拿來用在了自然語言處理。該機(jī)制的思想就是把注意力集中在重要的信息上,而忽視不重要的信息(可見Attention圖解[2])。2017年,Google的研究人員發(fā)表了《Attention Is All You Need》[3],這篇文章中的Transformer模型是GPT的基石,整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)是由Attention機(jī)制組成[4],并且將序列中的任意兩個(gè)位置之間的距離縮小為一個(gè)常量,其次Transformer具有好的并行性,符合現(xiàn)有的GPU框架。

這里必須要提一下:Transformer設(shè)置了一種“位置編碼”(position encoding)機(jī)制,用來向序列數(shù)據(jù)添加位置信息,進(jìn)而讓模型學(xué)到“順序”。做法簡單巧妙:用正弦、余弦函數(shù)生成沿時(shí)間軸變化的波形,然后把這種波形疊加到Transformer的輸入中。

那什么是GPT模型呢?是生成式預(yù)訓(xùn)練模型(GPT,Generative Pre-Training),是OpenAI研究人員在2018年提出的模型[5]。GPT其實(shí)可以看作是Transformer模型中decoder部分修改后的模型(紅色框如圖1所示)[6]。

一篇不是很枯燥的ChatGPT閑談

圖1:Transformer模型

GPT去掉了Transformer的多頭注意力(Multi-head Attention),然后在進(jìn)行模型輸出時(shí),利用特定的下游任務(wù)進(jìn)行微調(diào)(分類任務(wù)、自然語言推理、語義相似度、問答和常識推理)。具體而言,GPT采用了Hinton等人2006年提出的一種經(jīng)典的神經(jīng)網(wǎng)絡(luò)訓(xùn)練策略:“預(yù)訓(xùn)練+微調(diào)”的二段式訓(xùn)練策略[7]。在預(yù)訓(xùn)練階段,首先基于龐大的生語料訓(xùn)練一個(gè)生成式語言模型;在微調(diào)階段,使用標(biāo)注數(shù)據(jù)繼續(xù)訓(xùn)練模型。

一篇不是很枯燥的ChatGPT閑談

圖2:GPT模型

這樣的生成式模型可以給他輸入N個(gè)單詞(也稱為Token)的序列,輸出是最有可能在輸入序列末尾放置的單詞的預(yù)測。舉個(gè)例子:

過了一會兒,大灰狼來了,他想闖進(jìn)小兔子的→家

當(dāng)我們想得到一個(gè)以上的多個(gè)單詞時(shí),就將得到的下一個(gè)單詞添加到輸入序列中,就可以得到下一個(gè)單詞。

一篇不是很枯燥的ChatGPT閑談

圖3:序列輸入輸出示例

以此發(fā)散,GPT可以進(jìn)行的任務(wù)其實(shí)有非常多,比如:文本生成、代碼生成、問答等等,如果要扯上其他類型的數(shù)據(jù),也不是不行,比如圖像生成、視頻生成等等,誰還不是些個(gè)高維向量嘛。

二、從GPT3到ChatGPT

1. 費(fèi)錢的GPT3

從GPT模型提出以來,OpenAI就在不斷進(jìn)行模型優(yōu)化。GPT系列的模型結(jié)構(gòu)秉承了不斷堆疊Transformer的思想,通過不斷的提升訓(xùn)練語料的規(guī)模和質(zhì)量,提升網(wǎng)絡(luò)的參數(shù)數(shù)量來完成GPT系列的迭代更新[8]。其中,GPT3模型是ChatGPT的基石,該模型擁有1750億的參數(shù),利用45TB的數(shù)據(jù)進(jìn)行訓(xùn)練,其訓(xùn)練費(fèi)用高達(dá)1200多萬美元,知乎上有個(gè)帖子在討論GPT3花了多少錢[9]。不得不說,OpenAI的這些個(gè)模型一直搞是真的有錢。在GPT3的文章[10]中,作者自己坦白實(shí)驗(yàn)中的實(shí)驗(yàn)數(shù)據(jù)是有些問題的,但是由于訓(xùn)練的花費(fèi)太高了,再訓(xùn)練一次也不太合適。

一篇不是很枯燥的ChatGPT閑談

圖4:GPT3論文原話

但是不得不說,GPT3的效果在大語料大參數(shù)量的加持下有了一些成績,并展示了三個(gè)重要的能力[11]:

  1. 語言生成:遵循提示詞(prompt),然后生成補(bǔ)全提示詞的句子(completion)。這也是今天人類與語言模型最普遍的交互方式。
  2. 上下文學(xué)習(xí) (in-context learning):遵循給定任務(wù)的幾個(gè)示例,然后為新的測試用例生成解決方案。很重要的一點(diǎn)是,GPT3雖然是個(gè)語言模型,但它的論文幾乎沒有談到“語言建模”(language modeling),作者將他們?nèi)康膶懽骶Χ纪度氲搅藢ι舷挛膶W(xué)習(xí)的愿景上,這才是 GPT3的真正重點(diǎn)。
  3. 世界知識 (world knowledge):包括事實(shí)性知識 (factual knowledge)和常識(commonsense)。

但是,仍然需要銘記于心的是,GPT3的本質(zhì)還是通過海量的參數(shù)學(xué)習(xí)海量的數(shù)據(jù),然后依賴transformer強(qiáng)大的擬合能力使得模型收斂?;谶@個(gè)原因,GPT3學(xué)到的模型分布也很難擺脫數(shù)據(jù)集的分布情況。對于一些明顯不在這個(gè)分布或者和這個(gè)分布有沖突的任務(wù)來說,GPT3還是無能為力的。GPT3的缺點(diǎn)有[12]:

  1. 對于一些命題沒有意義的問題,GPT3不會判斷命題有效與否,而是擬合一個(gè)沒有意義的答案出來;
  2. 由于40TB海量數(shù)據(jù)的存在,很難保證GPT3生成的文章不包含一些非常敏感的內(nèi)容,例如種族歧視,性別歧視,宗教偏見等;
  3. 受限于transformer的建模能力,GPT3并不能保證生成的一篇長文章或者一本書籍的連貫性,存在下文不停重復(fù)上文的問題。

就連OpenAI的首席執(zhí)行官都說,GPT3會犯愚蠢的錯(cuò),GPT3只是人工智能領(lǐng)域非常早期的一瞥。

一篇不是很枯燥的ChatGPT閑談

圖5:Sam Altman的Twitter原話

但是這起碼是一瞥,GPT3對AI領(lǐng)域的影響是深遠(yuǎn)的,給AI領(lǐng)域注入了一劑強(qiáng)心劑,告訴各大硬件廠商工作要加油,只要算力足夠強(qiáng),AI性能還有提升的上界。不過,由于其高昂的計(jì)算代價(jià)也引發(fā)了一些壟斷的討論:中小企業(yè)沒錢搞,而形成AI巨頭對算力要求高的算法的技術(shù)壟斷。當(dāng)時(shí)知乎上有一個(gè)問題“如何評價(jià)1700億參數(shù)的GPT-3?”[13],復(fù)旦大學(xué)邱錫鵬老師回答說:英偉達(dá)或成最大贏家!邱總給了2019 年 3 月機(jī)器學(xué)習(xí)先驅(qū)阿爾伯塔大學(xué)教授 Richard S. Sutton 著名的文章《苦澀的教訓(xùn)》的開篇的一段話,其中一句是“70 年的人工智能研究史告訴我們,利用計(jì)算能力的一般方法最終是最有效的方法?!?/p>

一篇不是很枯燥的ChatGPT閑談

圖6:The Bitter Lesson [27]

2. GPT-3 到 ChatGPT的心路歷程

再次,感謝熱心NLP同胞在網(wǎng)上的各種講解,有網(wǎng)友梳理了2020 版 GPT-3 到 2022 版 ChatGPT的心路歷程[11],如圖6所示,并且非常仔細(xì)地給出了不同版本模型的演變和差異。

一篇不是很枯燥的ChatGPT閑談

圖7:2020 版 GPT-3 到 2022 版 ChatGPT的心路歷程

可以看到,當(dāng)GPT3模型出世以后,OpenAI團(tuán)隊(duì)就將其用在了代碼生成[14]和基于指示學(xué)習(xí)的初代ChatGPT之InstructGPT。其中,微軟的應(yīng)用市場已經(jīng)提供了相關(guān)的代碼生成服務(wù)[15]。其實(shí),代碼生成是一個(gè)非常有利可圖的市場??紤]到程序員的高時(shí)薪,即使每月節(jié)省幾個(gè)小時(shí)的編碼時(shí)間,也足以支付Codex的訂閱費(fèi)。不過Codex依然還是會犯錯(cuò)的!OpenAI的研究人員在論文中警告:“安全使用Codex這樣的代碼生成系統(tǒng)需要人類的監(jiān)督和警惕?!痹僬fInstructGPT,其實(shí)這個(gè)就是ChatGPT最初始的模型了,而后,模型又加入了RLHF策略,這是啥呢,全稱是Reinforcement Learning from Human Feedback,翻譯過來就是基于人工反饋的強(qiáng)化學(xué)習(xí)。接下來我們再回顧一下ChatGPT背后的技術(shù)路線:

一篇不是很枯燥的ChatGPT閑談

圖8:InstructGPT模型框架

Step1:工程師團(tuán)隊(duì)設(shè)計(jì)了一個(gè)基于 Prompt 訓(xùn)練方式的數(shù)據(jù)集,里面有大量的提示文本,并且詳細(xì)說明了下游任務(wù)是什么。將這個(gè)訓(xùn)練集交給人類標(biāo)注記錄人類的回答,并拿這個(gè)數(shù)據(jù)集去通過 Prompt的方式微調(diào) GPT3。

當(dāng)下,人們玩ChatGPT玩的非常666,不過ChatGPT 效果好不好一部分原因取決于你的 Prompt(提示詞),那什么是Prompt呢?其實(shí)就是你問ChatGPT的那句話,可以問他今天星期幾,也可以問他牛頓是誰,還可以問很多問題。但是怎么問,問什么是會得到不同效果的答案的。目前已經(jīng)有很多網(wǎng)友總結(jié)出如何撰寫Prompt的指導(dǎo)手冊[16],亞馬遜的網(wǎng)站上都有書賣了,甚至都有網(wǎng)站專門交易Prompt[17]。大家為了賺錢真是努力啊。

一篇不是很枯燥的ChatGPT閑談

圖9:Prompt交易網(wǎng)站

一篇不是很枯燥的ChatGPT閑談

圖10:2022年年底關(guān)于Prompt撰寫的指南

寫好Prompt,走遍天下都不怕。根據(jù)熱心網(wǎng)友總結(jié)出的Prompt撰寫原則,需要盡量follow這么幾點(diǎn)[16]:

  1. 清晰,切忌復(fù)雜或歧義,如果有術(shù)語,應(yīng)定義清楚。
  2. 具體,描述語言應(yīng)盡量具體,不要抽象活模棱兩可。
  3. 聚焦,問題避免太泛或開放。
  4. 簡潔,避免不必要的描述。
  5. 相關(guān),主要指主題相關(guān),而且是整個(gè)對話期間,不要東一瓢西一瓤。

Step2:微調(diào)后的模型姑且稱為 GPT3-1 吧,用 GPT3-1 去預(yù)測第一步的數(shù)據(jù)集的任務(wù)得到 N 個(gè)結(jié)果,并且讓標(biāo)注人員標(biāo)注每個(gè)選項(xiàng)的好壞并把這個(gè)標(biāo)注后的數(shù)據(jù)集用來訓(xùn)練獎(jiǎng)勵(lì)模型(RM)。

其實(shí),這一步就是基于人類反饋的強(qiáng)化學(xué)習(xí),即通過人類的反饋,有針對性地進(jìn)行優(yōu)化。如果說深度學(xué)習(xí)是在學(xué)習(xí)表征的話,強(qiáng)化學(xué)習(xí)就是在學(xué)習(xí)規(guī)則。簡單來說,以前,我們針對輸入就只輸出一個(gè)結(jié)果A,完了不斷優(yōu)化結(jié)果A;現(xiàn)在,我們針對輸入,輸出了結(jié)果A、B、C、D,然后我還告訴模型這個(gè)A、B、C、D哪個(gè)好,哪個(gè)不好,模型你要好好學(xué),盡量學(xué)出好的那些選項(xiàng),而不是不好的(reward model的目標(biāo)是拿高分)。

Step3:使用 PPO 的策略來更新參數(shù),拿 GPT3-1 再預(yù)測一次數(shù)據(jù)集的結(jié)果通過第二步的獎(jiǎng)勵(lì)模型進(jìn)行打分,計(jì)算獎(jiǎng)勵(lì)(reward)。最后將這個(gè)獎(jiǎng)勵(lì)分?jǐn)?shù)通過 PPO 給到 GPT3-1 進(jìn)行訓(xùn)練。

第三步簡而言之就是把獎(jiǎng)勵(lì)的結(jié)果投入到模型的參數(shù)更新環(huán)節(jié),不斷擬合,得到最后的模型。

這里提到的PPO[18]的全稱是Proximal Policy Optimization,近端策略優(yōu)化算法,網(wǎng)上現(xiàn)在的解析也很多啦[19],就是用來做策略梯度下降。機(jī)器學(xué)習(xí)中常常舉的一個(gè)栗子是,人要下山,那往哪里走,下山穩(wěn)又速度快。

梯度下降算法有三種類型:批量梯度下降、隨機(jī)梯度下降和小批量梯度下降。PPO算法提出了目標(biāo)函數(shù)可以在多個(gè)訓(xùn)練步驟實(shí)現(xiàn)小批量的更新,解決了策略梯度算法中步長難以確定的問題。如果步長太小,訓(xùn)練時(shí)間就會過長。如果步長過大,有用信息會被噪音掩蓋(因?yàn)槊總€(gè)數(shù)據(jù)影響都很大),或者令性能災(zāi)難性的下降,難以收斂[20]。

說到這第三步,現(xiàn)在有很多吃瓜群眾都會問:火出圈的為什么是 OpenAI,而不是國內(nèi)的一線大廠?我的回答是:就拿這ChatGPT里的PPO策略(用來更新參數(shù)的算法)來說, 這個(gè)PPO是2017年,OpenAI團(tuán)隊(duì)提出的,對2015年提出的TRPO算法[21]的改進(jìn)版本,提出TRPO這個(gè)算法的人是伯克利的博士生John Schulman等人,包括其導(dǎo)師,他導(dǎo)師是強(qiáng)化學(xué)習(xí)領(lǐng)域的大神Pieter Abbeel, Abbeel是伯克利的副教授,同時(shí)也是OpenAI的研究科學(xué)家,是機(jī)器人強(qiáng)化學(xué)習(xí)領(lǐng)域最有影響力的人之一。不得不說,人家現(xiàn)在走的每一步,都是因?yàn)橹白叩拿恳徊健?/p>

三、ChatGPT閑談

1. 為什么ChatGPT出名,而GPT3沒有?

首先回到2019年,Google團(tuán)隊(duì)提出了Bert模型[22],訓(xùn)練一個(gè) Bert模型租用云算力要花大概 6912 美元,GPT3 需要的算力是 Bert的 1900 多倍, 另外,同等參數(shù)規(guī)模下,Bert的效果要好于GPT。筆者當(dāng)時(shí)的畢業(yè)論文就是用的Bert模型,Bert當(dāng)時(shí)真的成為了各種實(shí)驗(yàn)的基線,維基百科中提到:2020年的一項(xiàng)文獻(xiàn)調(diào)查得出結(jié)論:“在一年多一點(diǎn)的時(shí)間里,BERT已經(jīng)成為NLP實(shí)驗(yàn)中無處不在的基線”,算上分析和改進(jìn)模型的研究出版物超過150篇[23]。

Bert勝在易得,我自己感覺GPT的風(fēng)頭并沒有Bert大,大廠內(nèi)各種在做的也多是Bert的身影。那為啥ChatGPT出圈了?我覺得很大的一個(gè)原因是他的出圈方式,之前很多時(shí)候,搞人工智能研究的,但凡有突破性進(jìn)展都是通過發(fā)論文的方式來說明自己的模型有多厲害。就算放開API,也有一定的使用門檻,最多在Twitter上吹一把模型多厲害。

圖11:當(dāng)年Google研究員的Bert宣傳

但是這次的ChatGPT完全不一樣,直接放開了一個(gè)對話框給大家玩,男女老少都能參與,而且效果不差,那可不得一下子就火起來。對于這樣大膽的放開,又不得不提到“那些年被斃掉的Tay”,2016年,Twitter 上發(fā)布了一個(gè)人工智能聊天機(jī)器人 Tay,但在和用戶開放對話后不到一天的時(shí)間里,它就“變成”了一個(gè)熱愛希特勒、譏諷女權(quán)主義的機(jī)器人,最終由于不恰當(dāng)?shù)姆N族主義言論引發(fā)了激烈爭議。所以,接下來想要介紹的是ChatGPT在數(shù)據(jù)標(biāo)注上的一些個(gè)建樹。他們是有嚴(yán)格且規(guī)范的標(biāo)注指南的[24],并且在不能回答的一些個(gè)問題上,是絕對就不回答的。

所以目前來看,如果只是簡單的一些Prompt來問,ChatGPT還是可以規(guī)避一些不好的問題的。相比于直接拿開放的語料訓(xùn)練,這種花多點(diǎn)錢,但是數(shù)據(jù)有一定質(zhì)量保證的模型還是更加能夠拿出來給公眾耍。據(jù)說,OpenAI雇傭了80 位人工標(biāo)注者生成了6.48萬條數(shù)據(jù)對模型進(jìn)行調(diào)校,耗資約百萬。

2. 胡說八道的ChatGPT出世后

首先,ChatGPT 并不是一個(gè)算法,更像是一套方案,也就是綜合了多種方法的一個(gè)有機(jī)系統(tǒng),模型追溯其根本都是在之前的研究上搭建起來的。另外,其在數(shù)據(jù)質(zhì)量和多樣性上非常講究。雖然ChatGPT強(qiáng)化學(xué)習(xí)的數(shù)據(jù)量并不大,但對數(shù)據(jù)多樣性、標(biāo)注體系都有精巧的設(shè)計(jì),讓數(shù)據(jù)發(fā)揮出了強(qiáng)大的作用。所以當(dāng)然目前ChatGPT還有很多問題在爭議中,這里截取了一些聲音(沒能標(biāo)注來源抱歉!):

1)數(shù)據(jù)問題

「ChatGPT 接受公共數(shù)據(jù)的訓(xùn)練,這些數(shù)據(jù)通常是在未經(jīng)同意的情況下收集的,這會帶來一系列的責(zé)任歸屬問題?!?/p>

「我們不允許 AI 被列為我們發(fā)表的論文的作者,并且在沒有適當(dāng)引用的情況下使用 AI 生成的文本可能被視為剽竊?!埂禨cience》系列期刊的主編

「模型的內(nèi)部知識總是在某個(gè)時(shí)間被切斷。模型始終需要最新的知識來回答最新的問題。ChatGPT當(dāng)下一個(gè)很大的弊端是無法實(shí)時(shí)獲取互聯(lián)網(wǎng)信息。」

2)成本問題

「客戶有私有化部署要求,但這些模型非常大,對資源要求高,當(dāng)前不太可能實(shí)現(xiàn)私有化部署?!?/p>

「沒有一個(gè)老板能接受,NPC回復(fù)一句話要花掉幾毛錢,即使它說得再好。」

但是我看到的最讓我有感觸的其實(shí)是這句話:“短期內(nèi)可能大家會高估這個(gè)東西,但長期可能有很多人會低估這個(gè)東西。”首先,ChatGPT走到今天的這一步,是在非常多重要的基石上累積起來的。我相信ChatGPT應(yīng)該也會成為一塊基石,將有更多的能力在此的基礎(chǔ)上進(jìn)行搭建,這不是一次性的成功,這還是人工智能的一瞥。而背后需要的算力(硬件)、數(shù)據(jù)(錢、能擁有數(shù)據(jù)的能力)、算法(一些個(gè)真正的科研人員),缺一不可。

2月20日的時(shí)候,復(fù)旦大學(xué)自然語言處理實(shí)驗(yàn)室發(fā)布國內(nèi)第一個(gè)“對話式大型語言模型MOSS”的消息,轟動科技圈,大量訪問一度造成服務(wù)器過載。21日上午,MOSS研發(fā)團(tuán)隊(duì)通過公開信為“體驗(yàn)不好”致歉,表示愿意在MOSS完成初步驗(yàn)證之后,將相關(guān)經(jīng)驗(yàn)、代碼、模型參數(shù)開源共享,MOSS是邱錫鵬教授的團(tuán)隊(duì)開發(fā)的。感覺是一個(gè)“有真正的科研人員+沒有硬件支撐和工程化能力”的例子。

再看最近,有人問:ChatGPT 對多模態(tài)領(lǐng)域技術(shù)發(fā)展方向的影響?那必然是:卷起來了!3月6日,谷歌發(fā)布“通才”模型PaLM-E,作為一種多模態(tài)具身 VLM,它不僅可以理解圖像,還能理解、生成語言,執(zhí)行各種復(fù)雜的機(jī)器人指令而無需重新訓(xùn)練。它還展示出了強(qiáng)大的涌現(xiàn)能力(模型有不可預(yù)測的表現(xiàn))。然后也沒隔多久,微軟開始拉著OpenAI,N鳴驚人。

3月14日,OpenAI攜手微軟于發(fā)布了GPT4[25],也是關(guān)注多模態(tài)的,實(shí)驗(yàn)效果要比PaLM好,并且可以執(zhí)行非常多的任務(wù),比如,GPT4 在各種職業(yè)和學(xué)術(shù)考試上表現(xiàn)和人類水平相當(dāng)。模擬律師考試,GPT4 取得了前 10% 的好成績,做美國高考 SAT 試題,GPT-4 也在閱讀寫作中拿下 710 分高分、數(shù)學(xué) 700 分(滿分 800)。

一篇不是很枯燥的ChatGPT閑談

圖12:GPT4考試成績一覽

整個(gè)GPT4模型的工程由預(yù)訓(xùn)練、視覺、長文本、強(qiáng)化學(xué)習(xí)與對齊、評估與分析、部署等團(tuán)隊(duì)參與,同時(shí)OpenAI也致謝了微軟的合作,特別是微軟Azure在基礎(chǔ)架構(gòu)設(shè)計(jì)和管理方面支持模型訓(xùn)練,以及微軟Bing團(tuán)隊(duì)和微軟安全團(tuán)隊(duì)在安全部署方面的合作(詳見公眾號文章解說[26])。結(jié)果再一轉(zhuǎn)頭,Bing瀏覽器立馬就把模型用了起來。

不得不說,或許這將是谷歌遭到的致命一擊,回想起2023年初谷歌裁員了1.2萬余人,并且有非常多資深的開源大佬。要知道最流行的人工智能機(jī)器學(xué)習(xí)框架如 PyTorch、TensorFlow 和 Rasa 都是開源項(xiàng)目,而當(dāng)時(shí)卻讓優(yōu)秀和最聰明的開源專家離場,此刻不免有些戲劇。但是說實(shí)話人家GPT4論文也說了:咱這模型還是不完全可靠的(它會自己幻想一些事實(shí),并且推理錯(cuò)誤),用語言模型輸出時(shí)應(yīng)該格外小心,尤其在高風(fēng)險(xiǎn)上下文中,并且需要確切的協(xié)議(比如人工審查、附加上下文等等)。

一篇不是很枯燥的ChatGPT閑談

圖13:GPT4論文中的警告,hallucinate這個(gè)詞妙

所以大家,還是先適度地醒一醒。結(jié)果,微軟拎著GPT4開過光的全家桶走來了,導(dǎo)致大家、我覺得至少大部分人一時(shí)半會兒時(shí)醒不過來了,GPT4可太上頭了。微軟CEO納德拉表示,今天是一個(gè)里程碑,意味著我們與電腦的交互方式邁入了新的階段,從此我們的工作方式將永遠(yuǎn)改變,開啟新一輪的生產(chǎn)力大爆發(fā)。

說實(shí)話,模型還是那個(gè)模型,就是應(yīng)用的場景和方式變了,并且在辦公軟件這樣的落地環(huán)境里,至少人們的要求是明確的,相比開放式的ChatGPT,或許全家桶的效果更好。最近吃瓜群眾著急的是自己是不是要被人工智能替代了,人家深度學(xué)習(xí)巨頭之一LeCun都急了:Calm down,還早呢。

一篇不是很枯燥的ChatGPT閑談

圖14:Yann LeCun在3月20日發(fā)的Twitter評論Human-level AI

接下來,看看微軟花的錢能不能通過商業(yè)化回來吧,不過,今天ChatGPT出bug[28]了。微軟的股價(jià)也跌了一下下。

一篇不是很枯燥的ChatGPT閑談

圖15:微軟近一個(gè)月的股價(jià)

再次回顧一下,簡直是大模型越燒越旺的一周:

3月13日,斯坦福發(fā)布LLaMA模型:https://github.com/tatsu-lab/stanford_alpaca

3月14日,清華發(fā)布ChatGLM-6B模型:https://github.com/THUDM/ChatGLM-6B

3月14日,OpenAI發(fā)布GPT4模型:https://openai.com/product/gpt-4

3月14日,谷歌給出PaLM API:https://blog.google/technology/ai/ai-developers-google-cloud-workspace/

3月15日,PyTorch2.0發(fā)布:https://pytorch.org/blog/pytorch-2.0-release/

3月16日,微軟發(fā)布Microsoft 365 Copilot:https://blogs.microsoft.com/blog/2023/03/16/introducing-microsoft-365-copilot-your-copilot-for-work/

3月16日,百度發(fā)布文心一言:https://yiyan.baidu.com/welcome

讓子彈再飛一會兒吧。英偉達(dá)此刻真的哈哈哈。

閱讀材料

[1] 論文:https://www.pnas.org/doi/pdf/10.1073/pnas.79.8.2554;

[2] 中文:https://zhuanlan.zhihu.com/p/342235515 ;英文:https://towardsdatascience.com/attn-illustrated-attention-5ec4ad276ee3#0458 ;

[3] 論文:https://arxiv.org/abs/1706.03762 ;

[4] 自注意力機(jī)制和transformer詳解:https://luweikxy.gitbook.io/machine-learning-notes/self-attention-and-transformer ;

[5] 論文:https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf;

[6] https://zhuanlan.zhihu.com/p/125139937 ;

[7] 論文:https://www.cs.toronto.edu/~hinton/absps/fastnc.pdf;

[8] https://zhuanlan.zhihu.com/p/350017443 ;

[9] https://www.zhihu.com/question/412295638/answer/1387457462 ;

[10] 論文:https://arxiv.org/pdf/2005.14165.pdf ;

[11] 強(qiáng)推閱讀材料:https://yaofu.notion.site/GPT-3-5-360081d91ec245f29029d37b54573756 ;

[12] https://zhuanlan.zhihu.com/p/350017443;

[13] https://www.zhihu.com/question/398114261

[14] https://openai.com/blog/openai-codex/ ;

[15] https://learn.microsoft.com/en-us/azure/cognitive-services/openai/how-to/work-with-code ;

[16] https://mp.weixin.qq.com/s?__biz=MzIxMzkwNjM2NQ==&mid=2247521130&idx=1&sn=f710af36749e8be0caa7249d913e28d0&chksm=97ad75b8a0dafcaed61ce821c6689ecc478bac836680f59b26473b14a75b00f18bd74aae0c63&mpshare=1&scene=1&srcid=02076gsCDwzP4ENko7r0U66d&sharer_sharetime=1675823385633&sharer_shareid=0a9c66924ea99ca17a8569783429bda1&version=4.1.0.6015&platform=win;

[17] https://promptbase.com/ ;

[18] 論文:https://arxiv.org/abs/1707.06347 ;

[19] https://zhuanlan.zhihu.com/p/479912119 ;

[20] https://blog.csdn.net/weixin_44436360/article/details/107979004 ;

[21] 論文:https://arxiv.org/abs/1502.05477;

[22] 論文:https://arxiv.org/abs/1810.04805 ;

[23] https://zh.wikipedia.org/wiki/BERT ;

[24] 官方標(biāo)注手冊:https://docs.google.com/document/d/1MJCqDNjzD04UbcnVZ-LmeXJ04-TKEICDAepXyMCBUb8/edit ;

[25] 論文:https://cdn.openai.com/papers/gpt-4.pdf;官網(wǎng):https://openai.com/research/gpt-4;

[26] https://mp.weixin.qq.com/s?__biz=MjM5ODkzMzMwMQ==&mid=2650436117&idx=2&sn=1ec9ed4876a31de508a0469e15ca804d&chksm=becdf44f89ba7d59beeb526254e68cefd168852c2a3ca6b21540690f9f0007e6d6bd48e474fb&mpshare=1&scene=1&srcid=0315GhUWwI9wEzpYLxj4bZgg&sharer_sharetime=1679312424675&sharer_shareid=0a9c66924ea99ca17a8569783429bda1&version=4.1.0.6015&platform=win#rd

[27] https://www.cs.utexas.edu/~eunsol/courses/data/bitter_lesson.pdf

[28] https://finance.yahoo.com/news/openai-shut-down-chatgpt-fix-060030490.html

作者: shutianma

來源公眾號:騰訊CDC體驗(yàn)設(shè)計(jì)(ID:tx_cdc),構(gòu)建數(shù)字時(shí)代互聯(lián)網(wǎng)生態(tài)的用戶價(jià)值與體驗(yàn)創(chuàng)新

本文由人人都是產(chǎn)品經(jīng)理合作媒體 @CDC 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于CC0協(xié)議。

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!