AGI加速到來,但無人真正關(guān)心
在數(shù)字化時代,人工通用智能(AGI)的概念如同一股不可阻擋的潮流,不斷沖擊著科技界的邊界。然而,隨著AGI的腳步愈發(fā)臨近,我們是否真正準(zhǔn)備好迎接這一變革?
AGI 很快就會到來,但這不會是一個大事件。
AGI的實(shí)際定義變得更加謹(jǐn)慎,通常指的是“人類水平的智能”,而不是超級智能。許多AI專家認(rèn)為,AGI不會帶來科幻小說中描述的那種顛覆性變化,而是更像是一位聰明的大學(xué)生,能夠完成某些復(fù)雜的任務(wù),但遠(yuǎn)未達(dá)到超越人類的水平。
我們把ChatGPT作為一個整體來考慮,你可能會覺得它給出的某個特定問題的錯誤答案確實(shí)令人失望,但這對于大多數(shù)ChatGPT的用戶來說,其實(shí)并不是什么大問題。
過去兩年的跡象表明,平均每四周就會出現(xiàn)產(chǎn)品的更新迭代,每個發(fā)展階段都在迅速推進(jìn)。你的周圍充滿虎視眈眈的競爭者。這些公司都在拼命告訴你,他們在研發(fā)更大、更好的東西,他們準(zhǔn)備改變一切。
有人告訴我,初級工程師不應(yīng)該使用ChatGPT進(jìn)行編程,但高級工程師可以,因?yàn)楦呒壒こ處熤滥睦锍隽藛栴}、可以修正ChatGPT給出的不完美的答案。
?The Verge?是一家成立于2011年的美國科技媒體網(wǎng)站,總部位于紐約曼哈頓。該網(wǎng)站提供新聞、產(chǎn)品評論、播客和視頻等內(nèi)容。本期訪談是兩位知名的記者關(guān)于AGI和近期AI事件的討論。
OpenAI 首席執(zhí)行官薩姆·奧特曼多年來一直在說——多年!——人工通用智能(AGI)將類似于奇點(diǎn)。當(dāng)我們實(shí)現(xiàn) AGI 時,奧特曼和其他人表示,它將從根本上重塑社會。
在本周紐約市的紐約時報DealBook 峰會上,奧特曼說沒關(guān)系。他表示,AGI 很快就會到來,但這不會是一個大事件。
一、AGI 的炒作與現(xiàn)實(shí)
Nilay Patel: 歡迎來到RichCast,嗨,我是Nilay Patel。
David Pierce: 我是David Pierce。
Nilay Patel: 今天Kylie Robison將加入我們進(jìn)行討論。有很多關(guān)于AI的事情,所有這些都?xì)w結(jié)為一個問題:如果它不像我們說的那樣好怎么辦?
David Pierce: 很多人都在談?wù)撨@件事,這是本周我真正注意到的事情。
Nilay Patel: Kylie 會和我們談?wù)勅斯ぶ悄艿降装l(fā)生了什么。Kylie,你好。有很多關(guān)于你負(fù)責(zé)報道的 AI 領(lǐng)域的消息。作為高級 AI 記者,這意味著每周都有很多人談?wù)撐覀兊臋C(jī)器人主宰。本周他們都突然決定 AGI即將來臨。這讓我感覺就像是大家突然說“這事要發(fā)生了”,然后人們可以根據(jù)自己的理解來解讀。你覺得他們有一個群聊嗎?
David Pierce: 我記得在疫情初期,有一些科技公司的 CEO 們在一個 WhatsApp 群里,試圖弄清楚該怎么做,如何管理各種事情。我想知道現(xiàn)在是不是也有一個關(guān)于 AGI 的群聊?里面是不是有 Sam Altman 在問“我們做到了嗎?我們應(yīng)該現(xiàn)在說出來嗎?”
Nilay Patel: 誰在這個群聊里,誰不在,這真是個有趣的問題。也許這就是問題所在。只要讓你重新加入,所有的訴訟都會消失。你知道《紐約時報》的訂閱產(chǎn)品主要是為了視頻游戲,我們是不是可以把訂閱改為“誰在 AI 群聊里,誰不在”,就像 MySpace 的前 10 名好友一樣?我們每天都可以眾包這個問題,然后它會在現(xiàn)實(shí)中發(fā)生。比如今天,聽眾決定 Sam 不在群里,他醒來后發(fā)現(xiàn)“我不在群里”。
David Pierce: 是的,這主意不錯。
Nilay Patel: 這值得每月 7 美元。讓我們開始吧。Sam Altman 在 DealBook 會議上宣布了一些東西,我們之前有過獨(dú)家報道,但他后來宣布了這件事,所以我們只是跟進(jìn)了。讓我們從 OpenAI 的 12 天計劃開始吧,他們稱之為“Shipmas”(ZP注:“Shipmas”活動是一項(xiàng)為期12天的產(chǎn)品發(fā)布季,從2024年12月5日開始,旨在展示新功能、新產(chǎn)品和演示)David,你怎么看?
David Pierce: 我不喜歡這個名字,我不明白“Shipmas”是什么意思。
Nilay Patel: 好吧,有個人會來到你的家里,表面上是來給你們一些東西,實(shí)際上他會吃光你所有的餅干,然后我們慶祝他。無論如何,這就是“Shipmas”計劃的一部分,它將包括 Sora 視頻生成器、一個新推理模型,還有今天 Kylie 提到的,他們宣布的第一個“Shipmas”項(xiàng)目是一個每月 200 美元的 OpenAI 計劃。這里到底發(fā)生了什么?
Kylie Robison: 是的,你說我們有獨(dú)家報道。我在前一天打了十幾個電話,人們都說“Shipmas”,不,是“發(fā)布某物”。他們剛剛發(fā)布了一個每月 200 美元的新特殊 o1 模型。我提前得到了這個消息,但時間不多,所以我還在消化。
我的第一反應(yīng)是:這聽起來像一個笑話,給我們 200 美元,你就能得到一些特別的東西,只管信任我們吧。對,這是一個特殊的 o1 模型,據(jù)說它在編程和激進(jìn)研究方面更好。是這樣的嗎?
Nilay Patel: 你知道,某款手表是用鉆石做的,5000 美元,但它似乎并不重要,因?yàn)橛行┤司褪窍牖?5000 美元買一塊 Apple Watch。這到底是怎么回事?它是真的更強(qiáng)大,還是我們只是不知道?
Kylie Robison: 他們發(fā)布了內(nèi)部測試結(jié)果。我對內(nèi)部測試總是持懷疑態(tài)度,無論這是否公平。我的自然反應(yīng)是:我希望看到更多的測試和證據(jù),當(dāng)然我也想自己試一試,看看感覺如何。我還想聽聽使用它進(jìn)行編程的工程師們的意見,比如“我確實(shí)感覺到不同了”。所以在看到這些指標(biāo)之前,我自己也不確定,但他們說確實(shí)更好。
作為舊金山的 AI 記者,我想象著 Hayes Valley 的那些人,他們會說:“天哪,我要每月支付 200 美元,這太酷了?!?它就像那塊鉆石 Apple Watch,只是為了擁有它。我最近采訪了 ChatGPT 的負(fù)責(zé)人 Nick Turley,他告訴我有些人有多個付費(fèi)賬戶,因?yàn)樗麄冇X得這很有趣。
David Pierce: 這里面有一種 FOMO(Fear of missing out)和虛假軍備競賽的感覺,我認(rèn)為這只是其中的一部分。每個人都在這里談?wù)撍麄冑I了多少 NVIDIA 芯片,仿佛這是衡量你創(chuàng)業(yè)公司有多酷的標(biāo)志?,F(xiàn)在我們會進(jìn)入一個階段:來我們的創(chuàng)業(yè)公司工作,我們將為你提供每月 200 美元的 ChatGPT Pro,而不是去那個只提供 Plus 版本的其他創(chuàng)業(yè)公司。順便說一句,OpenAI 之前不是說過要改進(jìn)品牌命名嗎?結(jié)果呢?
我很快忘記了這一點(diǎn)。但無論如何,我認(rèn)為這有可能會變得有意義。但我感覺 OpenAI 就像是在利用人們對任何微小優(yōu)勢的渴望,有很多有錢人愿意為此買單。讓我們看看會發(fā)生什么。這個詞是什么,當(dāng)你試圖弄清楚人們愿意為某物支付多少錢時?
Kylie Robison: 價格彈性。是的,AI 世界現(xiàn)在正在進(jìn)行價格彈性測試?!都~約時報》曾報道說,他們希望獲得數(shù)十億美元的收入,現(xiàn)在我們看到他們的計劃是什么。
Nilay Patel: 他們就像 Carl Lagerfeld 會買這個模型,永遠(yuǎn)不會設(shè)置它,只是把它戴在身上作為一種地位象征,過一段時間再換掉。這非常有趣。我想從這里開始,他們在接下來的 10 到 12 天內(nèi)會發(fā)布一系列新產(chǎn)品。第一個是這個極其昂貴的模型,我們必須看看它表現(xiàn)如何。在這個背景下,很多人說模型的能力不再像去年那樣迅速提升。
自從ChatGPT發(fā)布以來已經(jīng)兩年了,他們推出了 3.5 和 4.0 版本,現(xiàn)在是 o1。這些名字都很糟糕,而且它們似乎已經(jīng)達(dá)到了瓶頸。有一份報告說 Gemini 也遇到了瓶頸,新的 Gemini 實(shí)際上不如舊的 Gemini 好。有一種感覺是,最初的大幅進(jìn)步帶來了大量炒作,但能力的提升并不是線性的。OpenAI 似乎在試圖打破這種瓶頸,說這個新模型非常好,值得 10 倍的價格。我無法完全理解這兩者之間的關(guān)系。
Kylie Robison: 我認(rèn)為這就是我對 Heath 在 DealBook 上關(guān)于 AGI 的報道的理解:AGI 實(shí)際上不會那么重要。我覺得他們制造了過多的炒作,現(xiàn)在必須面對這個問題。很多 AI 領(lǐng)導(dǎo)者都在說,我們已經(jīng)習(xí)慣了這些技術(shù),公司跟不上炒作的步伐,而過去的進(jìn)展是由擴(kuò)展定律帶來的,未來也會如此,但這還有待觀察。我認(rèn)為他們確實(shí)遇到了瓶頸,這就是為什么我們看到的是漸進(jìn)式的發(fā)展,而不是立即推出 GPT-5。顯然,它還沒有準(zhǔn)備好。
Nilay Patel: 我想讀一下 Sam Altman 在 DealBook 會議上的一句話。他和 Andrew Sorkin 在臺上,他說:“我的猜測是我們會在比大多數(shù)人認(rèn)為的更早實(shí)現(xiàn)AGI,但它的重要性將遠(yuǎn)小于人們的預(yù)期?!?這是一個令人難以置信的聲明,因?yàn)樗罢f過:“我們將在現(xiàn)有硬件上實(shí)現(xiàn) AGI?!?這是一個驚人的主張,如果這是真的,我們應(yīng)該停止所有其他工作,專注于實(shí)現(xiàn)這一點(diǎn)。但他又說:“但它會很糟糕?!?所以,你們要創(chuàng)造一個愚蠢的人工智能嗎?這就是你要說的是嗎?
Kylie Robison: 他們說的是人類水平的智能,而不是超級智能。他們經(jīng)常提到“人類水平的智能”,比如說像聰明的大學(xué)生。我覺得他們在這方面制造了太多的炒作,這就是為什么當(dāng)我看到 DealBook 的那句話時,我覺得他們在調(diào)整期望。他們說下一個東西是 AGI,但大家卻說:“這真的是 AGI 嗎?” 感覺他在說:“其實(shí)它不會那么重要?!?/p>
Nilay Patel: 實(shí)際上,它并不會那么重要。更大的背景是,有報道稱 OpenAI 可以自行決定實(shí)現(xiàn) AGI 后退出與微軟的協(xié)議。這與他們之前的結(jié)構(gòu)有關(guān),當(dāng)時是非營利董事會,董事會的任務(wù)是決定是否安全實(shí)現(xiàn) AGI 或解雇 Sam Altman。他們做了前者,而不是后者,解散了整個董事會,現(xiàn)在他們將轉(zhuǎn)型為營利性公司。因此,微軟在他們的協(xié)議中有一個奇怪的條款:如果 Sam Altman 決定實(shí)現(xiàn)了 AGI,他可以離開與微軟的協(xié)議。這真是一個奇怪的激勵機(jī)制。
順便說一下,我會在周一的 Decoders 節(jié)目中與 Mustafa Suleyman(ZP注:DeepMind 的聯(lián)合創(chuàng)始人之一,現(xiàn)在是 Microsoft AI 的 CEO)討論這個問題。我問他:“我們能在現(xiàn)有硬件上實(shí)現(xiàn) AGI 嗎?” 他并不認(rèn)同。
David Pierce: 嗯,但他有點(diǎn)含糊其辭,說:“也許有一天會實(shí)現(xiàn)?!?這是一次很好的 Decoders 對話,他是個有趣的談話對象,我們互相喜歡,也喜歡挑戰(zhàn)對方。雖然他不同意 Sam 的觀點(diǎn),但他也在重新定義 AGI 的標(biāo)準(zhǔn)。我問他:“如果我們正在構(gòu)建奇點(diǎn),難道不應(yīng)該停下來專注于這個嗎?” 他說:“AGI 不是奇點(diǎn)?!?這與我們過去經(jīng)歷的炒作不符,對吧?炒作是說我們必須停止這一切,因?yàn)樵谖覀儧]有準(zhǔn)備好之前實(shí)現(xiàn) AGI 會毀了世界。還記得 Elon Musk 的說法嗎?這就是為什么很多人都離開OpenAI,成立了名為“Safer Superintelligence”的公司。Ilya Sutskever 在今年 6 月的 OpenAI 憲章中描述了 AGI,Sam Altman 也參與了這個憲章并同意。他認(rèn)為 AGI 是一個可以自動化絕大多數(shù)智力勞動的計算機(jī)系統(tǒng)。他稱之為一個有用的定義。我們不能讓 Sam Altman 逃避責(zé)任。他花了十年時間讓 AGI 成為了一個熱門話題,我們現(xiàn)在使用的“AGI”這個詞就是他推廣的。
Nilay Patel: 完全正確。他還故意提到 OpenAI 和微軟的關(guān)系,引用了 Alex Heath 的話。Keith 對此非常興奮,因?yàn)?Alex 當(dāng)時在現(xiàn)場發(fā)了一條即時消息,Sam 說:“我不認(rèn)為我們正在與微軟脫鉤?!?我也問了他同樣的問題,他說:“我們會看看情況如何發(fā)展?!?他重復(fù)了三次,直到我說:“你已經(jīng)說了三次‘我們會看看情況如何發(fā)展’?!?他才說:“哦,沒關(guān)系?!?/p>
David Pierce: 這就像 Chris Martin 和 Gwyneth Paltrow 說的“我們沒有分手,我們是有意識地解耦?!?是的,這就是微軟。
Kylie Robison: 我可以戴上我的陰謀論帽子。今天我一直在關(guān)注 OpenAI 的新聞,他們顯然有一個巨大的發(fā)布會和直播。我在 Twitter 上設(shè)置了所有 CEO 的通知,所以我會收到他們的動態(tài)。Satya 納德拉轉(zhuǎn)發(fā)了許多微軟今天的公告,而 Tom Warren 也爆料了一些內(nèi)容,但 Sam 沒有轉(zhuǎn)發(fā)任何東西。
這感覺像是一個接班人風(fēng)格的動作,就像是在說:“這是我最喜歡的男孩。” 這個時機(jī)真的很奇怪,Satya 似乎在忽略整個聊天機(jī)器人的話題。
Nilay Patel: 所以,一個月內(nèi),你可以把 Sam 從一個好的局面中踢出去。這些事情都不是偶然的。
David Pierce: 這確實(shí)是一個陰謀論,但當(dāng)你像 Satya Nadella 這樣的人,不會隨便做決定。除了 Elon Musk 之外,大多數(shù)科技 CEO 都是有目的的行動。
200條AI生成內(nèi)容就有153條有錯
Nilay Patel: 這是一個非常好的點(diǎn)。我們現(xiàn)在來鋪墊一下背景:OpenAI 將在接下來的 12 天內(nèi)宣布一系列新項(xiàng)目,包括一個他們認(rèn)為如此優(yōu)秀的模型,值得每年 200 美元。Sam Altman 正在將 AGI 的目標(biāo)重新定義為明天的事情。
他說:“我可以在 NVIDIA 4060 上用 20 美元做到這一點(diǎn)。給我一臺 Xbox 和足夠的汽油,我就能給你一個通用人工智能?!?這就是他的心態(tài)。然而,現(xiàn)實(shí)是目前的產(chǎn)品遠(yuǎn)未達(dá)到那個水平。哥倫比亞大學(xué)數(shù)字新聞研究中心本周發(fā)布了一份報告,要求 Chachapiti 識別來自 20 家出版物的 200 條引言的來源,結(jié)果它根本做不到。它通過胡編亂造完成了這項(xiàng)任務(wù),在 153 次回答中部分或完全錯誤,只有 7 次承認(rèn)自己無法準(zhǔn)確回答。
David Pierce: 它被問了 200 個問題,答錯了 153 個。
Nilay Patel: 是的,而且它只承認(rèn)自己可能錯 7 次。
David Pierce: 不是承認(rèn)自己錯了,而是承認(rèn)有可能可能會錯 7 次。
Nilay Patel: 在文化層面,人們在使用這些工具時幾乎沒有思考。Liz Lopato 寫了一篇文章,她似乎在五分鐘內(nèi)就完成了,因?yàn)樗?dāng)時并沒有在寫這個故事。文章非常好。她提到Woodrow Wilson總統(tǒng)赦免了他的姐夫Hunter deButts,這種說法顯然是網(wǎng)絡(luò)謠言——當(dāng)看到Hunter deButts這個名字時,我就明白這是典型的網(wǎng)絡(luò)謠言。Reddit上有個帖子,詳細(xì)描述了Hunter deButts的背景故事,好像這個人、這件事真的發(fā)生過似的,這些網(wǎng)絡(luò)內(nèi)容甚至為Hunter deButts增添了一層傳奇色彩。但是在進(jìn)行網(wǎng)絡(luò)檢索的時候,機(jī)器人會對這些內(nèi)容感到困惑。后來Liz對這個謠言進(jìn)行了深入調(diào)查,她試圖追溯這一說法的來源。結(jié)果發(fā)現(xiàn),網(wǎng)上的信息完全無法解答“哪些總統(tǒng)赦免過家庭成員”這一問題——而作為記者,她把這場鬧劇甩鍋給ChatGPT。
我們正在快速用這些所謂的“答案引擎”取代傳統(tǒng)的搜索引擎,而這恰好是谷歌一直以來的目標(biāo)——想讓我們把它視為答案提供者,就像Google Ads那樣。作為搜索引擎,Google過去會提供上百個鏈接,告訴用戶:“這是信息來源,你可以自行閱讀并決定是否信任它們?!比欢F(xiàn)在它直接給用戶一個答案,并附上幾個腳注鏈接。問題是,幾乎沒有人會點(diǎn)擊這些鏈接。他們只會簡單地轉(zhuǎn)發(fā)像Hunter deButts這樣的詞組,在沒有上下文或驗(yàn)證的情況下傳播錯誤信息。
Kylie Robison: 在這里我想替專業(yè)記者說句話。我確實(shí)很喜歡用AI搜索,因?yàn)樗軒椭铱焖僬业酱鸢福鋵?shí)我并不會關(guān)注它直接呈現(xiàn)的答案。我會花更多的時間去點(diǎn)擊它文后的引用鏈接,然后自己閱讀這些內(nèi)容,因?yàn)镚oogle在公開信源方面做得非常糟糕;而通過點(diǎn)擊鏈接,我可以自己去查看信息來源、信息內(nèi)容的具體情況,所以,在實(shí)際工作流程上,我其實(shí)并沒有認(rèn)真關(guān)注AGI給出的答案,這在我們進(jìn)行新聞報道的過程中是很重要的一點(diǎn)。
此外,我最近采訪了ChatGPT的負(fù)責(zé)人,并在寫一個關(guān)于他們起步歷程的故事。他們一開始就說:“沒人會喜歡這個產(chǎn)品,因?yàn)樗腻e誤率太高,而且過于自信?!?他們覺得不應(yīng)該發(fā)布這個產(chǎn)品,因?yàn)橛脩魰憛捤?,它?jīng)常自己憑空捏造信息。但最終,他們還是決定發(fā)布預(yù)覽版本,以觀察人們會如何使用它。結(jié)果,人們非常喜歡它。兩年后,盡管它仍然充滿自信地給出錯誤答案,但卻賺取了數(shù)十億美元的收入;雖然OpenAI還未實(shí)現(xiàn)盈利,但這一切似乎已經(jīng)不重要了。問題是,它仍然頻繁地產(chǎn)生“幻覺”,但人們依然喜愛它。這一點(diǎn)確實(shí)讓人費(fèi)解。
Nilay Patel: 如果你還記得一年前,大家都在說會解決AGI捏造事實(shí)的問題。他們聲稱已經(jīng)控制住了這一問題、知道該如何去做。但實(shí)際上,他們完全沒有控制住。現(xiàn)在“Hunter deButts”這種似是而非的詞匯大量出現(xiàn)在互聯(lián)網(wǎng)上。如果他們稍微有些理智,就應(yīng)該在宣布這個東西是AGI之前按下暫停鍵。而我認(rèn)為,這其實(shí)是所有這些工具的核心問題:這項(xiàng)技術(shù)真的能夠?qū)崿F(xiàn)他們所聲稱的功能嗎?目前來看,它顯然做不到。甚至連分辨什么是真實(shí)、什么是虛假、什么是純粹的“幻覺”都無法做到。
二、AGI加速到來,但卻無人關(guān)心
David Pierce: 是的,這也是為什么AGI應(yīng)用到信息檢索領(lǐng)域特別有趣的一個原因。我們把ChatGPT作為一個整體來考慮,你可能會覺得它給出的某個特定問題的錯誤答案確實(shí)令人失望,但這對于大多數(shù)人ChatGPT的用戶來說,其實(shí)并不是什么大問題——我不完全認(rèn)同這種說法,你也可以對此持有不同的觀點(diǎn),但這的確是目前比較流行的一個想法,很多AI相關(guān)的討論也常常出現(xiàn)這種說法:人們在測試時發(fā)現(xiàn),用戶并不太擔(dān)心這些虛假信息的問題。
這同任務(wù)的性質(zhì)有關(guān)。當(dāng)涉及到搜索時,任務(wù)的本質(zhì)就是要找到互聯(lián)網(wǎng)上相關(guān)且真實(shí)的信息。因此,用ChatGPT寫代碼和用ChatGPT搜索信息,這是兩個完全不同的情況。寫代碼是一個真實(shí)的場景,盡管ChatGPT會犯錯誤,但這些錯誤是可以忍受的,它能高效地寫出代碼,這對很多職業(yè)編程人員來說是不錯的選擇;但如果任務(wù)是準(zhǔn)確檢索信息,情況就變得不盡相同了;這種情況下如果ChatGPT犯錯,而背后的開發(fā)公司卻冠冕堂皇地聲稱“它已經(jīng)為你解答了問題”,這就不可接受了——因?yàn)槟阋呀?jīng)將產(chǎn)品建立在“它能夠完成這項(xiàng)工作”這個基礎(chǔ)假設(shè)之上,但顯然,它完成不了這一使命。
Kylie Robison: 有人告訴我,初級工程師不應(yīng)該使用ChatGPT進(jìn)行編程,但高級工程師可以,因?yàn)楦呒壒こ處熤滥睦锍隽藛栴}、可以修正ChatGPT給出的不完美的答案。高級記者也是類似,作為一名記者,我需要做的只是快速找到信息,而Google在這方面做得很差。所以,我對ChatGPT的態(tài)度也比較模糊,我知道我必須點(diǎn)開它給出的鏈接,考證它的信息來源是什么、它的可靠性如何。
在一次采訪中,GPT的負(fù)責(zé)人說:用戶一開始就知道,他們必須檢查這些信息;他們知道如何寫出提示詞,因此他們也對此感到非常滿意——這樣來看,使用 GPT 的人都很清楚如何使用ChatGPT、該在什么時候信任ChatGPT。但盡管如此,我依舊認(rèn)為ChatGPT這種行徑是不負(fù)責(zé)任的:我們作為高級從業(yè)者當(dāng)然知道正確的信息是什么樣子,但90%的時間里ChatGPT并沒能給出正確答案——這是不可以被用戶接受的。
David Pierce: 拋掉所有哲學(xué)意義上的風(fēng)險斗爭不談,ChatGPT只是一個糟糕的產(chǎn)品。這一方面它和Google很像:你去Google檢索信息,但是它只是給了你一堆毫不相干的鏈接。
Nilay Patel: 我想針對你說的“糟糕產(chǎn)品”給出一個例子——這個例子就發(fā)生在本周。斯坦福大學(xué)的某位研究員,也是斯坦福大學(xué)社交媒體實(shí)驗(yàn)室的創(chuàng)始人,他的專長是研究虛假信息,因支持明尼蘇達(dá)州一項(xiàng)反深度偽造法案而陷入麻煩。明尼蘇達(dá)的這項(xiàng)法案規(guī)定,在政治競選期間,不能偽造政客的言論。盡管有很多法案強(qiáng)調(diào)相關(guān)內(nèi)容,但近年來他們也不斷被一些保守派質(zhì)疑和挑戰(zhàn)。在法院上,這位研究員為這項(xiàng)法案寫了一份聲明支持書,結(jié)果發(fā)現(xiàn),他使用ChatGPT來幫助整理引用文獻(xiàn),而ChatGPT捏造出了一些毫不存在的引用。
最荒唐的是,他自己明明知道這一點(diǎn),但他卻自信地寫下了聲明:“我已經(jīng)編寫并審核了這份聲明的實(shí)質(zhì)內(nèi)容,堅定地支持其中所做的每一項(xiàng)主張,這些主張得到了該領(lǐng)域最新學(xué)術(shù)研究的支持,并反映了我作為一名專家對人工智能技術(shù)、虛假信息及其對社會影響的看法。” 接著,他還表示,他使用了Google Scholar和ChatGPT來“識別可能與聲明相關(guān)的文章”,以便將已有研究與新學(xué)術(shù)成果結(jié)合起來——問題是,這些所謂的新學(xué)術(shù)成果完全是編造的。
David Pierce: 不過,開個玩笑,我太太正在讀研,她花了大量的時間來做整理引用文獻(xiàn)格式這樣的事情,但她的論文依舊被扣分了,因?yàn)樗秧摯a和出處的順序放錯了。所以她有一年半的時間一直都在怒斥論文引用格式。所以我想,如果人工智能只想幫我引用一些東西,我甚至都不用擔(dān)心引用帶來的麻煩事了,它不必是真的,因?yàn)闆]人會檢查它們的真實(shí)性,也沒人關(guān)心它們的真實(shí)性。
三、AGI本質(zhì)是大公司之間的競爭
Nilay Patel: 在紐約時報的DealBook的訪談中,Google的Sundar Pichai提到,他對Microsoft的大模型和Google自己的模型做了橫向比較,他發(fā)現(xiàn)他們幾乎一直在“借鑒”其他人的模型。他的言外之意是Microsoft自己研發(fā)的模型非常糟糕,所以他們不得不借鑒OpenAI的模型。這也意味著,如果Sam Altman認(rèn)為OpenAI的模型是AGI,那么更加有競爭力的Google模型也是AGI。
Kylie Robison: 這讓我想到Elon Mask說的一句話。有人問Elon你們會率先實(shí)現(xiàn)AGI嗎?Elon說:“不一定,我們或許會步調(diào)一致,同時實(shí)現(xiàn)AGI。”
David Pierce: 過去兩年的跡象表明,平均每四周就會出現(xiàn)產(chǎn)品的更新迭代,每個發(fā)展階段都在迅速推進(jìn)。比如OpenAI做了某些事,接著Anthropic做出一個更好的成果,比之前的基準(zhǔn)高出10%;然后Meta也推出了更好的成果,比之前的基準(zhǔn)又高出10%;緊接著Google更新了WhatsApp、Gemini,然后這一切又開始循環(huán)。
你會發(fā)現(xiàn),前后左右都有十好幾個人虎視眈眈。我認(rèn)為這是一場競爭激烈且迅速商品化的過程。這些公司都在拼命告訴你,他們在研發(fā)更大、更好的東西,他們準(zhǔn)備改變一切,會比其他公司更快地將其產(chǎn)品化、市場化。我認(rèn)為對于Google來說,他們的策略就是“我們能更快地開發(fā)這些產(chǎn)品,其他公司趕不上我們”。
就像Sundar出來說:“我們的模型很棒,我們今年會推出更多產(chǎn)品,預(yù)計會有更大突破。”但他們的態(tài)度就是:“無所謂,我們是Google,我們已經(jīng)將它集成到Gmail和Google Drive中了,Sam,你有什么?”
Kylie Robison: ?完全同意,像亞馬遜這樣的企業(yè)也有自己的模型。有報道指出OpenAI正在努力將ChatGPT打造成一個可定制的企業(yè)產(chǎn)品供人們使用,他們在這種競爭中確實(shí)占有優(yōu)勢。但在這種炒作周期中,我唯一學(xué)到的一件事就是:不要相信他們說的任何東西。他們會告訴你:“我們不會提高價格”,“我們接近AGI了”,或者類似的說法。我只相信已經(jīng)發(fā)布并且可以直接使用的內(nèi)容,至少,眼前可以用到的才是最值得信任的。
David Pierce: 如果Sam Altman希望讓自己看起來更酷,他或許應(yīng)該公布說:我們兩年前就實(shí)現(xiàn)AGI了,ChatGPT就是AGI,誰能夠阻止我們?
Nilay Patel: 人們相信ChatGPT就是AGI。我真的覺得,這些研發(fā)者和設(shè)計者很大程度上依賴于那些喜歡“能言善辯”的人——如果你的語言表達(dá)流暢又自信,在美國確實(shí)能走得很遠(yuǎn)。悲哀的是,人們就在這些花言巧語中接受了OpenAI。比如,我的侄女甚至直接把它叫做Chat,在感恩節(jié)期間,她不停地說:“讓我問問Chat?!蔽覅s心想,它明明是在騙你,她卻對此不以為然,“無所謂啊,差不多就行了?!?/p>
這很可怕,但同時也反映了人們對這個產(chǎn)品的關(guān)系模式。在某種程度上這些產(chǎn)品設(shè)計師正是利用了這種模棱兩可的關(guān)系進(jìn)行交易,某些時候不會產(chǎn)生負(fù)面后果,但是這不意味著這些負(fù)面后果不會發(fā)生——可能又有研究人員在文獻(xiàn)引用上出問題,或者某位律師因?yàn)槭褂锰摷俚囊帽黄毓狻5鹊阶銐蚨嗳艘驗(yàn)檫@些問題陷入困境時,市場上那些愿意出錢投資的公司就會停下腳步,直到這些產(chǎn)品能保證可靠性、準(zhǔn)確性,或者至少是有效性。我們目前創(chuàng)造的只是一些看似下一代接口的自然語言工具,但實(shí)際上并沒有真正創(chuàng)造出可用的產(chǎn)品。
David Pierce: 沒錯,正如你提到的,云端服務(wù)供應(yīng)商之間的大戰(zhàn)即將一觸即發(fā)。這周亞馬遜推出了新模型,成為人工智能工具的云端服務(wù)供應(yīng)商將會是斗爭的核心利益點(diǎn),而競爭者名單我們也很熟悉:Google對陣Amazon,對陣Microsoft,某種程度上也在對陣OpenAI——OpenAI和微軟之間的商業(yè)關(guān)系很復(fù)雜,但這就是戰(zhàn)場。這些斗爭暗流涌動,雖然不似其他領(lǐng)域那么吸引眼球,但我們不得不承認(rèn),人工智能的業(yè)務(wù)核心就是這些公司之間的競爭。
Kylie Robison:完全同意。作為一名關(guān)注云服務(wù)和企業(yè)技術(shù)的新聞從業(yè)者,我很熟悉這類競爭重現(xiàn),一切最終都會回到SaaS模式,這就是競爭的焦點(diǎn),所有的資金都會涌入這里。如果這些公司想賺取數(shù)十億美元并訓(xùn)練他們的百億美元模型,他們就需要大額企業(yè)合同來支撐這一切。
Nilay Patel: 我可以在這里做個總結(jié)。第一,我們應(yīng)該回頭看看所有的AI生成內(nèi)容的引用鏈接,找到那些“幻覺”并驗(yàn)證其真實(shí)性了。第二,無論我們?nèi)绾味xAGI,假如你創(chuàng)造的東西只是看起來像一個聰明的大學(xué)生,但40%的時間都在編造東西,200次中有153次說謊,你會放心讓ta處理重要的任務(wù)嗎?這顯然存在著脫節(jié)。盡管這些工具帶來了很多樂趣,但它們與真正的知識之間有本質(zhì)的差距。我們拭目以待吧。你覺得接下來的趨勢是什么?OpenAI會不會在明年完全轉(zhuǎn)向營利模式?
Kylie Robison:是的,這很可能就是主要方向。我一直在腦海中思考國防合同的問題。如果這些人工智能工具一直錯誤百出,而它們又開始與像Anduril (美國國防技術(shù)公司) 這樣的公司簽署合作協(xié)議,那真的令人擔(dān)憂。風(fēng)險會越來越高,而我不確定這些模型是否已經(jīng)準(zhǔn)備好應(yīng)對這些高風(fēng)險場景。這確實(shí)令人焦慮。如果它們想把這些代理工具引入大型企業(yè),進(jìn)一步涉足國防領(lǐng)域,然后建立更多數(shù)據(jù)中心,那到了2025年,風(fēng)險只會進(jìn)一步提升,而這些公司會繼續(xù)賺錢。正如你提到的,我們可能會看到一些嚴(yán)重的后果。當(dāng)然,目前來看,我們已經(jīng)看到了一些負(fù)面后果,但AI的從業(yè)者似乎并沒有因此停止了他們手里的工作。
編譯:Spring Liu & Elena Chen
本文由人人都是產(chǎn)品經(jīng)理作者【產(chǎn)業(yè)家】,微信公眾號:【產(chǎn)業(yè)家】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
盡管AGI的概念被廣泛討論,但實(shí)際的AI技術(shù)進(jìn)步是逐步和連續(xù)的,而非一次性的顛覆性事件。