幻覺即智能:AI落地里順勢與逆勢的分界線

1 評論 1871 瀏覽 3 收藏 13 分鐘

關(guān)于AI幻覺的問題,業(yè)內(nèi)不少人都嘗試進行了思考和應(yīng)對,那么現(xiàn)在,在AI落地的過程中,我們是否需要將幻覺當作前條件和不變量來進行思考?幻覺所帶來的都是壞處嗎?不如來看看本文作者的思考和解讀。

大模型是有幻覺的,其表現(xiàn)很多樣比如與事實沖突,其成因也很多比如缺相關(guān)知識或者對齊錯誤,不清楚的點就更多。但和應(yīng)用相關(guān)的最為關(guān)鍵的點還不是這些,而是:看起來幻覺是個短期搞不定的事,即使是OpenAI。這就要求在落地的時候把它當前條件和不變量來思考,一旦把它做前條件和不變量,那就會發(fā)現(xiàn)像對人類一樣,幻覺也并不全是壞處。

一、順勢的和逆勢的

我們把幻覺對產(chǎn)品有幫助還是對產(chǎn)品有害作為縱軸,再加上出問題的責任作橫軸,形成一個簡單的坐標系,然后再把各種人工智能體放在在這個坐標系上面,那大概是下面這樣:

幻覺即智能:AI落地里順勢與逆勢的分界線

也許對不同人工智能體所處的位置會有爭議,但幾個極值應(yīng)該問題不大。

對于元宇宙而言本來就是高級游戲,那人物行為的出格反倒是會激發(fā)游戲敘事的多樣性,成為豐富世界內(nèi)容的一部分養(yǎng)料;對于問診就很麻煩,如果在既有醫(yī)療知識框架外發(fā)揮,然后病人病情變嚴重了,那就不單有害,后果還很嚴重。現(xiàn)實空間和問診類似的其實更多,包括客服、稅務(wù)咨詢等。

尋找智能飛輪:從數(shù)據(jù)枯竭到多模態(tài)再到自生成 里面我們提到過除了AlphaGo還沒人轉(zhuǎn)起來智能飛輪,又因為飛輪一旦轉(zhuǎn)起來必然會產(chǎn)生特定領(lǐng)域的神靈,所以關(guān)心這個人工智能應(yīng)用的人都關(guān)心到底在那里可能再出下圖這樣的智能飛輪:

幻覺即智能:AI落地里順勢與逆勢的分界線

這在上面的象限圖上也能找到回答的思路:越偏元宇宙這個方向,越容易些。幻覺可以低責任成本的制造新數(shù)據(jù),新數(shù)據(jù)融入場景,然后反過來就可以作為燃料驅(qū)動飛輪。

二、象限中的位置即定位

在象限中的位置對做AI產(chǎn)品落地是非常關(guān)鍵的。

這個位置在相當程度上就決定了你的運營成本乃至于跑的快慢。并且它面對的約束非常剛性,不可改變。

通常的理解里,我們都把產(chǎn)品看成一組特性,用能干什么不能干什么,用功能性能參數(shù)等表述,高級一點就用審美偏好衍生的就是品牌。但其實不全面,更深一層產(chǎn)品也是一套權(quán)責利系統(tǒng)的匯聚點。這在C端產(chǎn)品上體現(xiàn)的沒有B端明顯。

在過去很少被提及,因為經(jīng)濟體系里只有一種智能體:人。整個經(jīng)濟體系都按照人、法人來確定的權(quán)責利。但現(xiàn)在這套體系其實是碰到了新的挑戰(zhàn),人工智能體的崛起讓這種權(quán)責體系出現(xiàn)了裂痕,并且運轉(zhuǎn)滯澀。

最簡單的例子是過去經(jīng)常說的自動駕駛,用戶、廠家、自動駕駛服務(wù)提供商之間會產(chǎn)生新的復(fù)雜權(quán)責利再平衡。(原來事故的責任基本是用戶的,誰開誰負責,用了自動駕駛后就不行)

這會非常麻煩,因為人工智能并非權(quán)責利的主體,但似乎又得承擔對應(yīng)的責任。這就導(dǎo)致潛意識的每家公司都嘗試拿技術(shù)來對沖,讓某些壞的事好像可以不發(fā)生,但其實這和堂吉訶德戰(zhàn)風車差不多,基本不可能。

而和用戶、甲方權(quán)責利的再平衡其實是會像指揮棒一樣決定公司有限資源分配的導(dǎo)向性的。(事實上形成特定位置的一般性社會成本)

投入產(chǎn)出不好,還不得不干的情形,豈不尷尬?

這種尷尬的核心原因就是用技術(shù)沒辦法完全對沖掉的權(quán)責。

三、對沖不掉的權(quán)責

為什么說技術(shù)不可能完全對沖掉權(quán)責呢?

這固然是因為技術(shù)總是有個成熟過程,但很可能更關(guān)鍵的原因在于但數(shù)字和智能讓問題顯性化的同時,權(quán)責被放大了。

面對可以清楚表示的數(shù)字結(jié)果時每個客戶都會希望無限制的解決問題,而這種限度在過去是被抑制了的。

我們可以拿客服舉個例子:

當雇傭幾千上百的人做客服的時候,服務(wù)自身必然有良率問題。但這個時候大家基本能接受一定的錯誤,每個人都知道人會出錯,再加上客服人員還不好找,大家對這個良率就保持了一定的容忍度。假如客服人員服務(wù)不好丟失了一單,那最多辭退對應(yīng)的客服人員或者扣錢。很難向客服追討造成的損失。

當把客服換成人工智能體后,事情還是那個事情,但權(quán)責關(guān)系就默默的發(fā)生了些變化。

即使人工智能體的良率超過了過往的人工,從甲方的角度看,也還會有足夠的動力向提供人工智能體服務(wù)的公司追責。而后面的技術(shù)公司就得想盡辦法讓人工智能體不出錯。

這就是用技術(shù)對沖權(quán)責。

本質(zhì)是用技術(shù)解決近乎無限的領(lǐng)域問題。越到后來越變成搗糨糊,因為搞不定。人工智能這行業(yè)從智能音箱的喚醒開始就不停的反復(fù)這故事。

而實際情況是即使是古老的搜索引擎如果要求不出錯比如某類內(nèi)容出現(xiàn)一次就滅掉,那谷歌、百度這樣的公司都不知道死多少次了。

這種權(quán)責體系的容忍度其實有非常多的成因,有歷史的文化的商業(yè)現(xiàn)實的,十分剛性,不太可能改變。而如果它不能改變,那就并不怎么適合純粹的人工智能體。能想到折中方法就是把人再塞回去,即使這個人什么不干,只做做樣子,那也是他在履行工作職責,人工智能體服務(wù)于他,他對所有產(chǎn)出負責。

這樣一來,選擇和定位就很關(guān)鍵,因為權(quán)責系統(tǒng)本身就是成本、方向和客戶滿意度(“想都是問題,干才是答案”是錯誤的,雷軍說也不行干就完了不對的老話題)。在幻覺本就是智能的一部分的前提下,真跑到權(quán)責系統(tǒng)非常沉重的領(lǐng)域,那其實是事倍功半的。

基于這個視角,我們還可以再拔高一點,談一點新技術(shù)的應(yīng)用模型。

四、新技術(shù)的應(yīng)用模型

在探討應(yīng)用模型的時候我們先回到人類本身。

人類文明的核心子系統(tǒng):政治經(jīng)濟文化其實全是先虛后實,實又促虛這么反復(fù)倒騰來的。

這些在想象和某種邏輯合理性的基礎(chǔ)上,加上另外一波人找到了想象到物理定律、商業(yè)游戲之間的聯(lián)系,然后想象就會照進現(xiàn)實?;疖?、電、汽車、手機等差不多都是這么來到了世界上。

然后我們再截取1912年2月12日,溥儀退位這個時間點回溯,看看想象的作用。

今天對我們影響至深的產(chǎn)品很多其實都是1912年以前發(fā)明的,產(chǎn)品上包括蒸汽機、汽車、電、青霉素、電話、攝影機、電池等,人物則包括諾貝爾、愛迪生、特斯拉、福特等。這些產(chǎn)品出世后大致是不順的,比如蒸汽的汽車就經(jīng)常爆炸、愛迪生曾經(jīng)主力攻擊交流電危險容易電死人,但相對寬容的環(huán)境讓這些產(chǎn)品都存續(xù)了下來。

這給我們什么啟示呢?

新技術(shù)在一般性社會成本低的地兒開始更合適。權(quán)責系統(tǒng)越寬松,試錯成本越低,越有助于新技術(shù)驅(qū)動的不成熟產(chǎn)品轉(zhuǎn)起來。

整體一般性社會成本的事很復(fù)雜,這里不展開。(就是怎么避免在火車出現(xiàn)的時候,堅信它會破壞風水。)

對于創(chuàng)新主體的個人,顯然的要規(guī)避復(fù)雜權(quán)責系統(tǒng)。

因為技術(shù)不成熟如果還要用它來對沖復(fù)雜權(quán)責的風險,那肯定吃力不討好。

回到人工智能更具體一點會是什么樣呢?

環(huán)境本身的寬松與否在這個時間點看著也許不關(guān)鍵,復(fù)雜權(quán)責系統(tǒng)也許還更容易形成現(xiàn)金流。但越往后可能會更關(guān)鍵。因為潛在智能飛輪會起作用,所以這就真的是1.01的99次方和0.99的99次方的差別。

凱文凱利在科技想要什么里表達了這樣一個觀點,那怕科技帶來的好處只多余壞處一點點,那隨著它本身的強大,那影響的結(jié)果也是非常顯著的。

對人工智能體也是一樣,這一點點差異到后面可能就是智能飛輪轉(zhuǎn)不轉(zhuǎn)的起來的差異。

簡單說就是屬于人工智能自身的應(yīng)用模型是:要找幻覺有益,權(quán)責對沖沒那么復(fù)雜的領(lǐng)域,然后由內(nèi)而外的成長,而不是揠苗助長。

幻覺即智能:AI落地里順勢與逆勢的分界線

(揠苗助長的、盯的越緊的,潛在效果越差)

五、小結(jié)

從這個角度看,確實幻覺就是智能,至少是智能飛輪的原動力。很多時候恰恰是幻覺給了我們一種智能的感覺,徹底的去除幻覺還保持智能,就真的是得達成一種超級單一體(克里人的終極智慧),這是很好的理想,但我覺得如果假設(shè)人工智能不可能建成完備的世界模型,那去除這種幻覺就是不可能的,所以與其指望用技術(shù)解決這問題,就不如根據(jù)技術(shù)的進展修正應(yīng)用模型。

專欄作家

琢磨事,微信公眾號:琢磨事,人人都是產(chǎn)品經(jīng)理專欄作家。聲智科技副總裁。著有《終極復(fù)制:人工智能將如何推動社會巨變》、《完美軟件開發(fā):方法與邏輯》、《互聯(lián)網(wǎng)+時代的7個引爆點》等書。

本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自 Unsplash,基于 CC0 協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. AI錯誤的問題在類安防領(lǐng)域表現(xiàn)的非常明顯,本來需要交警來查闖紅燈,沒人查就沒案件,現(xiàn)在上了AI攝像機,AI識別抓拍闖紅燈,案件數(shù)一下暴漲數(shù)百倍,其中還有大量誤報,讓交管部門如何處理?
    這個問題在垃圾分類領(lǐng)域表現(xiàn)的更為嚴重,我們用AI識別居民亂丟垃圾,一個投放點一天能報出上百個案件,因為環(huán)境復(fù)雜多變各種誤報都有,更大的問題是誰來處理這些案件呢?社區(qū)沒有執(zhí)法權(quán),城管有權(quán)但沒空,就算有權(quán)又有空還要考慮社會影響。
    所以我的判斷是AI在需要嚴謹區(qū)分對錯的領(lǐng)域都不能完全取代人類,因而無法實現(xiàn)真正意義上的效率提升。

    來自北京 回復(fù)