算法與用戶:地主與農(nóng)奴
在數(shù)字化時代,算法正以前所未有的方式影響著我們的信息接收和認(rèn)知構(gòu)建。本文探討了算法如何通過構(gòu)建“信息繭房”來控制用戶的信息流,進(jìn)而影響用戶的思想和行為。我們將分析算法的不同版本及其對社會各群體的影響。
前不久,中央網(wǎng)信辦等四部門聯(lián)合發(fā)布《關(guān)于開展“清朗·網(wǎng)絡(luò)平臺算法典型問題治理”專項行動的通知》,核心問題就是構(gòu)建“信息繭房”防范機(jī)制,提升推送內(nèi)容多樣性豐富性。
“信息繭房”是哈佛大學(xué)凱斯·R·桑斯坦(Cass R. Sunstein)教授在其《信息烏托邦》一書中提出的概念:它是一個溫暖、友好的地方,因為這里都是自己喜歡看到和聽到的東西,對于觀點(diǎn)話題的討論也不過是自己的回聲。
也就是說,平臺算法利用用戶的點(diǎn)擊、瀏覽和搜索歷史,為用戶分配其中一部分信息,再減少、忽略用戶對其它信息的接觸,構(gòu)建出一個信息封閉的“黑箱子”:
你看到的,就是算法想讓你看到的;你的想法,也是算法潛移默化影響你的。
那么,在這個“黑箱子”里,你害怕嗎?
一、算法也是不斷進(jìn)化的
在互聯(lián)網(wǎng)信息大爆炸的時代,知識已經(jīng)變成俯仰可拾的信息流。
用戶的難題不再是“在哪去學(xué)習(xí)知識”,而是升級為“如何判斷知識的真假”,這也給了算法的施展空間。
信息繭房形成的“回音室效應(yīng)”,哪怕你有再小眾的愛好、再離譜的想法,都能在算法的分配下,找到與你觀點(diǎn)相近的伙伴。
你點(diǎn)贊的圖文和短視頻,都是自己的“回聲”。
每個人都看到他們樂意看到的東西,每個人都能在小圈子里保持“自由”和“快樂”。哪怕這個“自由”和“快樂”只是算法圈養(yǎng)你的柵欄。
更可怕的是,算法是會進(jìn)化的。
算法1.0版本,是用戶主動去選擇和收集,算法根據(jù)協(xié)同過濾(Collaborative Filtering),挖掘用戶歷史行為,發(fā)現(xiàn)用戶的喜好偏向,并預(yù)測用戶可能喜好的產(chǎn)品進(jìn)行推薦。也就是購物平臺常見的“猜你喜歡”功能。
等到了算法2.0版本,就有大數(shù)據(jù)的加持,基本無需個人收集和選擇了,直接由機(jī)器按你的偏好推送。
不論你是什么種族、什么階層、什么群體、什么樣的觀點(diǎn),算法機(jī)器只讓你看到你想看到的。每個人都覺得自己觀點(diǎn)是世界上最正確的,充分滿足并安慰你的精神需求。
當(dāng)然,算法2.0版本不會承認(rèn)自己打造出來一個“信息繭房”,只會說這是“定制化觸達(dá)/垂直化推薦/精準(zhǔn)化投放”的結(jié)果,是合理合法的商業(yè)工具。
來源:網(wǎng)絡(luò)
抖音/快手的興趣推薦,看似中性的算法,實際上對不同群體的影響是截然不同的。
對于大部分“興趣廣泛”的用戶來說,其被推送的內(nèi)容或許是寵物、旅游、數(shù)碼等等,當(dāng)然也包括“黑絲女”和“腹肌男”。至少在當(dāng)下平臺環(huán)境里,后者比例要遠(yuǎn)大于前者。
對于現(xiàn)實生活比較單一、生活內(nèi)容重復(fù)、自控能力不強(qiáng)、信息獲取渠道單一的用戶來講,這樣的算法推薦對他們的影響或許是極其負(fù)面的。
并且這類人群覆蓋面極為廣闊,有藍(lán)領(lǐng)、有中老年人、也有低齡階段中小學(xué)生。
他們在算法之下,他們很容易沉迷在“黑絲女腹肌男”繭房之內(nèi),甚至接收到“不合時宜”的信息。
比如,銀發(fā)族困于養(yǎng)生、健康和短劇,相信土豪真的會愛上保潔阿姨;
藍(lán)領(lǐng)們消耗一天體力后,躺在出租房里沉迷擦邊直播間,花光工資也要當(dāng)榜一大哥;
甚至還有一些中小學(xué)生們,過早接收到不應(yīng)該是當(dāng)齡該看的內(nèi)容。
這些高密度人群如果被算法“毫無感情僅憑興趣”的推薦,將會帶來一連串社會性問題。
二、紅藥丸?還是藍(lán)藥丸?
如果說,你只能活在自己想要的世界里,很多人覺得無所謂,不就是“奶頭樂”嗎?我就愿意讓自己輕松一下,逃避一下殘酷的現(xiàn)實。
那如果說算法會影響到你的認(rèn)知呢?
所謂的“認(rèn)知”,其實是信息量+處理信息的能力。你信息攝入的越多,那么支撐你認(rèn)知的知識體系就越有力。
如果你的信息攝入是充滿“誤導(dǎo)”的呢?
比如,現(xiàn)在打開抖音/快手等短視頻App,刷出10條短視頻內(nèi)容。如果10條里面有9條,都是和LGBT運(yùn)動相關(guān),那你會不會認(rèn)為LGBT已經(jīng)是社會主流的性取向?異性戀其實才是性少數(shù)群體呢?
如果你完成對這些信息的攝入,形成了認(rèn)知,恭喜你,那么你就迎來了算法的“下半場”:你如果否定它,就要推翻你的全部認(rèn)知。
來源:倫敦藝術(shù)大學(xué)UAL實驗短片
有這么一個諷刺冷笑話,很適合描述現(xiàn)在的算法。
“小學(xué)時候同學(xué)們都愛看《西游記》,大家都說唐僧袈裟是黑色的,有個同學(xué)強(qiáng)烈反對,非要說是紅色的,氣的班上的同學(xué)打了他一頓,后來他哭著把我們帶到他家里,我們才赫然發(fā)現(xiàn),這個世界上原來還有彩色電視機(jī)?!?/span>
是的,當(dāng)你認(rèn)為“黑袈裟”是真理的時候,“紅袈裟”就是異端、另類、是要被燒死的人,對不同聲音充斥著排斥,甚至敵視。
如果要讓“黑袈裟”知道真相,就要把他們的認(rèn)知全部擊碎,掀開頭蓋骨,才能真正知道真相到底是什么。
就像是《黑客帝國》,面對舒適的算法世界,以及殘酷冷漠的真實世界,那你會選擇藍(lán)藥丸,還是紅藥丸?
我相信大部分人都會選擇一切迎合自己的算法世界,哪怕它支配了你的全部信息。
三、地主還是農(nóng)奴?
法國的經(jīng)濟(jì)學(xué)家塞德里克·迪朗(Cédric Durand)寫了一本書叫《技術(shù)封建主義》,他將算法背后的企業(yè)視為“地主”,用戶視為“農(nóng)奴”。
迪朗認(rèn)為,算法和數(shù)字技術(shù)的應(yīng)用,將用戶變成了數(shù)字農(nóng)奴。算法通過分析用戶數(shù)據(jù),推測用戶行為,并將其轉(zhuǎn)化為利潤。用戶在算法的統(tǒng)治下,失去了自主權(quán)和控制權(quán),按照算法的邏輯進(jìn)行行動。這種算法統(tǒng)治的現(xiàn)象,類似于封建社會中農(nóng)民對土地的依附,將用戶束縛在數(shù)字平臺的“領(lǐng)地”之中,無法逃脫算法的控制。
“地主和農(nóng)奴”最典型的案例,就是外賣騎手和網(wǎng)約車司機(jī)。
他們覺得自己工作很自由,不受老板的監(jiān)管,想幾點(diǎn)工作就幾點(diǎn)工作,一切完全取決于自己,好像獲得了某種自主權(quán)。
但其實,奴役者只不過從“企業(yè)老板”轉(zhuǎn)變成了“企業(yè)工具”,除了遵循平臺算法給出的訂單、路線與價格,他們別無選擇。
社會的輿論壓力,也被巧妙的轉(zhuǎn)移,變成“乘客和司機(jī)”“顧客和外賣員”之間的矛盾,似乎一切的訂單、路線與價格并不是由算法自主生成的一樣。
一切又回歸到迪朗和《技術(shù)封建主義》的核心主題:我們每個人在社會互動中形成數(shù)據(jù)不斷成為算法優(yōu)化與決策的“養(yǎng)料”,而社會互動又在被算法的結(jié)果“操縱”。
如果你問如何才能擺脫算法的圈禁?
那么只有將選擇的權(quán)利交付于用戶,讓他們主動去選擇,而不是被動去接受所謂的“定制化觸達(dá)/垂直化推薦/精準(zhǔn)化投放”等商業(yè)行為。
同時,最后還想重復(fù)問一遍:
“你是選擇藍(lán)藥丸,還是紅藥丸?”
作者|孫鵬越
編輯|大 風(fēng)
本文由人人都是產(chǎn)品經(jīng)理作者【鋅財經(jīng)】,微信公眾號:【鋅財經(jīng)】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!