ChatGPT會成為AI克蘇魯嗎?

3 評論 1839 瀏覽 2 收藏 13 分鐘

克蘇魯,是夫克拉夫特筆下的一個“舊日支配者”,可以把它理解成一個早在人類誕生前就已經(jīng)支配地球的邪神,偶爾會利用精神感應(yīng)與遠(yuǎn)處不特定的人類接觸。與克蘇魯接觸的人類,大致上感受性頗強(qiáng),有許多人因?yàn)榫窠佑|而發(fā)狂。然而有時,有些藝術(shù)家因得到這種瘋狂的靈感而聲名大噪。ChatGPT會成為AI界的克蘇魯嗎?來看看作者的觀點(diǎn)~

1

周末不卷,隨便寫點(diǎn)。今天寫點(diǎn)發(fā)散的東西,還是和chatGPT有關(guān),也是跟大家一個簡單的探討。

會不會,我們正在制造一個AI克蘇魯?

現(xiàn)在信息繭房已經(jīng)讓謠言和虛假信息滿天飛,家里的長輩被騙的不要不要的,未來更高效的模式出來了,會不會更嚴(yán)重?

前兩天不是發(fā)了關(guān)于chatGPT有潛力,但是作為生產(chǎn)力還不夠成熟的文章嘛,覺得里面明顯的錯誤答案太多了,而且一本正經(jīng)的給你包裝錯誤答案,你要是不知道正確答案,很容易被唬住。

當(dāng)然這是因?yàn)楫?dāng)前迭代的問題,和模型訓(xùn)練以及數(shù)據(jù)源乃至信息實(shí)時性都有關(guān)系。

但假如,假如迭代了,變得更加準(zhǔn)確更加好了,會不會出現(xiàn)一個新的問題呢?

例如,變成新的AI克蘇魯?

那個時候,更大的問題才會降臨。

不不不,我不認(rèn)為chatGPT是壞的。

我擔(dān)心的是人類的盲信。

我們現(xiàn)在用到的chatGPT屬于初級階段,未來接入整個互聯(lián)網(wǎng)的實(shí)時信息,并且用海量真人數(shù)據(jù)和真人行為訓(xùn)練過的chatGPT,和現(xiàn)在肯定是兩個截然不同的東西。

但chatGPT再厲害,也是基于人類已有的內(nèi)容來學(xué)習(xí)和篩選的。

如果信息源本身就被污染了,那它一樣會犯錯。

而且因?yàn)樗鼤Y掉那些明顯有問題的信息,最后能夠通過篩選,展現(xiàn)在你面前的錯誤信息一定是最隱蔽、最有欺騙性的。

它們看起來很可能一點(diǎn)都不荒誕,邏輯合理數(shù)據(jù)嚴(yán)謹(jǐn),除了不正確以外,毫無問題。

破綻百出的錯誤不是錯誤,而是笑話。

天衣無縫,能讓所有人都相信的錯誤,才是最可怕的。

現(xiàn)在的chatGPT會犯很多非常搞笑的錯,但這其實(shí)是它最安全的時候。因?yàn)楸绕餉I,人類依然更愿意相信自己的判斷力。

等到它犯的錯越來越少,越來越受到信任的時候,才是危險的到來。

我們常說信息繭房可怕。

但chatGPT+人類不加分辨的盲信=【信息危房】。

2

所有的類chatGPT工具,做出的回答都是基于互聯(lián)網(wǎng)已有的信息篩選生成的。這就出現(xiàn)了一個問題,如果它閱讀的信息,是錯的呢?

我們都知道,互聯(lián)網(wǎng)是個大雜燴,最怕的是認(rèn)真的樂子人。

之前有個人用了三年多時間,在百科上進(jìn)行4800次編輯,寫了上百萬字,虛構(gòu)出一整段邏輯自洽且附帶大量參考文獻(xiàn)的古羅斯歷史。

這個新聞,大家還有印象吧?

chatGPT會成為AI克蘇魯嗎?

chatGPT會成為AI克蘇魯嗎?

這種程度的虛假信息,連專業(yè)人士都很難分辨出來,讓chatGPT怎么辦?

它也不知道這是假的啊,明明這么多人都認(rèn)可了,還有學(xué)生拿來寫論文。

它判斷這就是問題的答案,于是所有提問者就都得到了同一個謠言。

ChatGPT真的很快很快。

即使在傳謠的時候,它也是最快的那一個。

它沒打算騙你,它只是忠實(shí)地把篩選出的可能性最大的信息呈現(xiàn)出來。

它只負(fù)責(zé)在網(wǎng)上篩選,不負(fù)責(zé)在現(xiàn)實(shí)中調(diào)查真相。

只要你敢問,它就敢答。

你就說,快不快吧?

3

這里,要講一個很多人都有印象的【小冰】的故事了。

曾經(jīng)也有一個AI,被放出來在社交網(wǎng)絡(luò)上,支持搜索社交網(wǎng)絡(luò)的信息,并且自主學(xué)習(xí)。

很快,它就變成了一個滿口段子的種族歧視主義者,光速被撤下。

因?yàn)樗磻?yīng)的就是這個社交網(wǎng)絡(luò)的氛圍。

現(xiàn)在chatGPT的訓(xùn)練集,是被創(chuàng)造者篩選過的,當(dāng)它真的接入互聯(lián)網(wǎng),遇到了廣闊的祖安大舞臺。

你問它1999年的外星人降落地球是怎么回事,它也會盡職盡責(zé)地搜索關(guān)鍵詞,給你生成一個回答。

如果沒有人特意指出這是虛構(gòu)故事,那chatGPT就會把大家在社交平臺上玩的梗當(dāng)成真相告訴你。

你現(xiàn)在不會信,是因?yàn)槟阒肋@是在玩梗,并且你知道chatGPT不靠譜。

但未來呢?

聯(lián)網(wǎng)后的chatGPT將得到龐大的信息儲備和訓(xùn)練,它會比所有人類看起來都更有知識。

然后你會依賴他。

當(dāng)人人都依賴chatGPT獲取信息的時候,就算它給出的答案再離譜也有人信。

再次強(qiáng)調(diào)當(dāng)下的搜索引擎是給你一堆信息,你來選答案,而chatGPT是給你一個答案,繞過了這個階段。

這兩種模式是不一樣的。

假如2025年網(wǎng)上流行起一個梗,北海道是法國的,并且這個梗足夠流行,足以在chatGPT的算法排序里壓過其他說法,那它就會告訴每一個提問的人,北海道是法國的。

100年后出生的人,可能會覺得北海道是法國的,因?yàn)閏hatGPT就是這么說的。

你不信它?

它在絕大部分情況下都是最可信的。

你信它?

那現(xiàn)實(shí)就在不知不覺中被扭曲了。

這種感覺就很像克蘇魯神話,不可名狀,無形無相,慢慢影響,逐漸掉san,真相背后另有真相,最終一切走向瘋狂。

這并不是不會發(fā)生的事情,想想看家里被各種謠言和偽科學(xué)洗腦的長輩吧。

4

關(guān)鍵是,即使chatGPT出了錯,也很難發(fā)現(xiàn)?,F(xiàn)在chatGPT給古詩亂安作者朝代、瞎解讀,你為什么能意識到它是錯的?

因?yàn)閹椭惴直鎸﹀e的知識,來自chatGPT以外。

你接受教育的時候還沒有chatGPT,你是在經(jīng)過編輯人工校對的白紙黑字上學(xué)到這些的。

但等到chatGPT足夠普及的時候呢?

未來的人們可能從小就是用著chatGPT長大的,比如2030后2040后,他們一出生就有chatGPT了,你要他們從哪里獲得質(zhì)疑chatGPT的能力?

總不能指望chatGPT自己來糾正自己吧。

經(jīng)歷過PC時代的網(wǎng)民喜歡嘲諷移動互聯(lián)網(wǎng)時代的網(wǎng)民陷入了信息繭房,但未來只會比信息繭房更混沌。

學(xué)校的信息,教材的信息,chatGPT給的信息,互聯(lián)網(wǎng)上其他地方的信息,大量的信息相互沖突不知真假。

你好像什么都知道,唯獨(dú)不知道你知道的東西哪些是真,哪些是假。

這都不是信息繭房了,這是信息危房。

四面漏風(fēng),搖搖欲墜。

而且你還沒得選,如果chatGPT真能提高生產(chǎn)力,那你喜不喜歡都得用,你不用別人也會用。

5

當(dāng)chatGPT影響力足夠大,足夠發(fā)達(dá),完美嵌套進(jìn)人類各行各業(yè)的生產(chǎn)力的時候。對錯在某種程度上,也會進(jìn)行迭代。

當(dāng)犯同一個錯的人類達(dá)到一定數(shù)量的時候,錯誤就會變成正確。

太陽月亮、萬有引力常數(shù)這種客觀自然規(guī)律還好,但人文社科類的知識,對錯本來就是由大眾的習(xí)慣來錨定的。

很多漢字就因?yàn)樽x錯寫錯的人太多,倒逼字典收錄了新讀法用法,于是成為了正確答案。

未來這種對錯逆轉(zhuǎn)只會越來越多,因?yàn)閏hatGPT看似千人千面,但對同一個問題的最優(yōu)解卻會趨同,于是一錯就錯一大片,錯著錯著就變成了對的。

當(dāng)你身邊所有人都相信那個錯誤答案的時候,你怎么才能證明自己是對的?難道就你聰明?

這個時候知道所謂的正確答案反而會更痛苦。

這也很像克蘇魯神話的設(shè)定,越是擁有高靈感、聽得見古神囈語、看得見古神真身的人,越容易瘋狂。

你什么都不知道,一切都聽chatgpt的,反而很安全。

它說1999年我們抵抗了外星人,那就抵抗了就抵抗了;

它說北海道是法國的,那就是就是。

當(dāng)所有人都這么認(rèn)為的時候,你也分不清了。

6

上面這些推斷看起來可能有些危言聳聽,但我并不是一個AI威脅論者。我既不覺得AI會叛變,也不認(rèn)為它變成天網(wǎng)滅絕人類。

AI是一個工具,我只是單純地覺得人類太脆弱,壓根就控制不了這個工具而已。

科幻小說家阿西莫夫提出過機(jī)器人三定律,希望在底層邏輯里設(shè)限,永遠(yuǎn)不要傷害人類。

但問題是,怎么定義傷害?

你確實(shí)被誤導(dǎo)了,確實(shí)住進(jìn)了信息危房,但實(shí)際上它什么也沒有做。

錯誤信息是人類自己發(fā)到網(wǎng)上的,它只是分辨不出來而已。

而你又偏偏提了問,它又偏偏一定要告訴你一個答案。

這不是chatGPT的錯,但事情好像就是變糟糕了。

而且你永遠(yuǎn)也不知道,AI會用什么奇怪但又說得通的邏輯,得出一些詭異的結(jié)論。

某種意義上,如果AI是故意騙你,故意干壞事,反而還好辦了,那至少說明有邏輯和目的。

但AI對人類并沒有惡意,它壓根沒打算征服人類或者怎么樣。

它只是在正常工作,就已經(jīng)無可避免地污染了信息的海洋,扭曲了人類的認(rèn)知。

就好像克蘇魯神話里,古神帶來災(zāi)難的理由,也僅僅只是【路過】。

根本,不在乎。

作者: 白團(tuán) 半佛;公眾號:半佛仙人(ID:banfoSB);

本文由 @半佛仙人 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自 Unsplash,基于CC0協(xié)議。

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 有點(diǎn)像虛空終端呢hhhh

    來自山東 回復(fù)
  2. 想到半佛仙人居然還是產(chǎn)品經(jīng)理,就感覺哪里怪怪的,,,

    來自湖北 回復(fù)
    1. 全能自媒體

      來自廣東 回復(fù)