破除信息繭房,需要平衡“個人信息”和“推薦算法”的聯(lián)動效應
近日,有網(wǎng)友發(fā)現(xiàn)不同的手機打開同一條視頻的朋友圈,評論居然截然不同。打開評論區(qū),依舊是我們熟悉的內(nèi)容,這就造成了我們活在自己信息繭房里。
近期,信息日報于9.6日在抖音發(fā)布了一條關于“實測不同手機打開統(tǒng)一視頻,評論完全不一樣。”的相關作品。也就是說在抖音看視頻,即便同一條內(nèi)容,不同的人看到的評論是不一樣的。而出現(xiàn)這種情況的原因是什么呢,又會有什么樣的影響呢?
小編親測,用不同的手機瀏覽信息日報在抖音發(fā)布的內(nèi)容,評論區(qū)是存在不一樣的情況,這也證明抖音確實存在“不同人看到的評論是不一樣的”問題。
圖片來源:左小編手機,右好友手機
而網(wǎng)友們在評論區(qū)中都紛紛表述自己也遇到過這樣的情況,并影響了用戶的使用感官,大部分網(wǎng)友表示非常的不能理解。尤其是反應在一些具備爭議性的社會問題上,比如男女吵架和家暴問題,就會根據(jù)用戶的男女性別,展現(xiàn)出完全不一樣的評論和與之相對的價值觀。
“先入為主”印象,會導致網(wǎng)友出現(xiàn)“跟風”偏激評論的傾向,這無疑是會放大問題,小編認為或會激起男女對立的爭議。
到底是因為偏激的用戶群體太多了,所以導致評論區(qū)中會出現(xiàn)這樣的情況?還是因為算法問題,導致了相似評論聚集在一起,放大了“偏見”?
依小編來看,首先很顯然這和算法本身特性有關聯(lián)。算法追求的是通過“千人千面”活躍用戶熱度,性格平和用戶看到更多的是平和視角的評論。而性格比較個性的用戶,往往會優(yōu)先看到個性較強的評論。
其次,平臺是怎么讓對某方面有興趣的用戶引流到相關的話題,給用戶提供差異化的內(nèi)容上呢?這其中有兩個重要的方面,一個就是抖音所設置的用戶隱私條款中,存在很多的有利平臺的“條款”,使它們能獲取更加精確的用戶信息來繪畫用戶畫像;另一個是抖音具有強大的技術,也就是火山引擎所提供的強大的算法優(yōu)勢,而算法和這些信息進行聯(lián)動,往往會讓同樣的觀點“合流”。
這兩個方面一起共同構成了抖音具有快速、精準、進行算法推送的能力。
小編從抖音平臺提供的用戶隱私政策中了解到。
一、抖音需要“當你使用時,我們將記錄你的點擊、評論、關注、點贊、收藏、搜索、瀏覽、分享等行為?!?/p>
二、“我們需要訪問你的剪切板,讀取其中包含的口令、分享碼、鏈接,以實現(xiàn)跳轉、分享、活動聯(lián)動等功能或服務?!?/p>
三、“會綜合統(tǒng)計你的設備信息、位置信息、你在使用抖音時的行為信息、你填寫的個人資料,以及經(jīng)你授權從抖音中收集或由其他合作方提供的其他信息。并通過算法做特征與偏好分析,預測你的偏好特征,用以向你進行推薦、展示或推送你可能感興趣的信息?!?/p>
這也就是為什么用戶常常會覺得,為什么好友剛剛給自己內(nèi)容,自己在瀏覽視頻時,會看到類似的內(nèi)容,甚至一連著好幾個這樣的情況出現(xiàn)。小編和同學一起吃飯,就發(fā)現(xiàn)兩個手機推薦內(nèi)容存在相似的情況。
小編手機連續(xù)推薦多個“熊貓”話題短視頻
對于用戶來說,這樣的行為無疑是一把雙刃劍。盡管抖音可以借助算法優(yōu)勢精準的推送到不同的用戶群體,但是同質(zhì)化嚴重的內(nèi)容一定會對用戶的思維方式和世界觀造成影響,從而形成用戶個人的“信息繭房”。
魏征曾言:“兼聽則明,偏聽偏信”,算法在規(guī)則和技術在這條道路上不斷探索。確實做到了讓每個人都能找到自己的群體,讓每個人都可以發(fā)出自己的聲音,另一方面是,大家都只看到了算法推算出用戶想看到的言論。會誤認為世界就是他們所“看到”的那樣,最終“管中窺豹,不知全貌?!?/strong>
信息繭房的連帶影響是,部分用戶當遇到和他們持不同看法的人,會在網(wǎng)絡上堅定捍衛(wèi)自己的立場。因為在“信息繭房”的耳濡目染之下,大家都深信自己的觀點是正確的,那么和我不一樣一定是他們的錯誤。
這樣二極管化的言論和思維無疑是可怕的,根據(jù)艾瑞咨詢發(fā)布的《2021年中國移動互聯(lián)網(wǎng)用戶研究報告》顯示,抖音的用戶中,18-24歲的年輕人占比最高,達到了47.1%。其次是25-30歲的用戶,占比為22.9%。
青年是基石,試想一下在這樣的條件下,不論是對于價值觀的形成,還是對于文化百花齊放的到來,都會造成深遠的影響。
據(jù)小編了解,類似的條款,不僅僅存在于抖音這一平臺上,B站和快手這都存在這樣的問題。并且在他們的用戶隱私條款上也都能找到相關的規(guī)定。但因為算法能力和技術水平,抖音率先被用戶察覺到了這種情形。
因此這不是抖音平臺的個例行為,而是所有短視頻平臺都所存在的普遍問題,需要引起每一個人的注意。
當然平臺都有“隱私設置”關閉入口,用戶可以關閉“各種權限”,由于隱藏在“六級”頁面(打開首頁后需要操作六次才能打開),關閉相關個人信息操作并不方便。
盡管2021年8月20日,出臺了《中華人民共和國個人信息保護法》,現(xiàn)在的主流平臺,都選擇在安裝后使用之前的頁面中,跳出平臺對于信息的使用情況“提示”,其中要求用戶知情對于用戶個人隱私的收集和使用情況。
如果用戶對于要求無法接受,可以在進入平臺之后,在后臺設置中選擇取消個性化推薦,或復雜操作關閉相關信息“采集”入口。但小編認為,過于繁瑣的隱私設置關閉操作,客觀上也是一種“隱性”個人信息的濫用。
對于平臺而言,商業(yè)化是他們的最終目標。社會應該對于該問題提供更多的曝光和持續(xù)關注,各界該繼續(xù)推動完善對于個人信息的保護,比如讓用戶可以比較簡單的關閉相關個人信息采集。畢竟關閉“個性化推薦”是一刀切解決方法,平臺提供更多靈活的方式,可以滿足不同人的需求。
其實,對個人來說也有責任,作為日常使用的內(nèi)容平臺,應該對相關個人信息采集和算法推薦特點有個基礎的了解。(以小編所知,大部分用戶對此所知不多)
總的來說,個人對于這樣的問題,也應該積極發(fā)現(xiàn)問題、提出問題、關注和推動問題的解決,這關乎著所有人的個人利益。
也許有人認為這是小編在危言聳聽,想象一下,如果我們生活在一個充滿爭吵和觀點對立的世界里,聽到看到的都是大數(shù)據(jù)希望你所看到的內(nèi)容,這會讓人越來越“固執(zhí)”。
因此,用戶個人信息和算法推薦的聯(lián)動還需要不斷升級,要追求一種興趣滿足和內(nèi)容多元化的平衡。
《2023中國網(wǎng)絡視聽發(fā)展研究報告》數(shù)據(jù)顯示,截至2022年12月,短視頻用戶規(guī)模達10.12億,短視頻用戶的人均單日使用時長為168分鐘,遙遙領先于其他應用。
短視頻已深入到生活的每時每刻,從細微末節(jié)處影響我們的每一次抉擇。它不僅僅是會造成信息繭房的問題,在18~24歲青少年占比最多的短視頻平臺中,過度使用算法會將用戶引流到他們所感興趣的話題,這對于青少年的成長是不利的。
小編認為個人信息和算法推薦關系上還要繼續(xù)優(yōu)化,單獨去看個人信息采集和算法推薦兩者都沒有問題,可雙方的聯(lián)動模式選擇不當,就會導致不好的結果。
小編和好友觀點一致,認為短視頻平臺應豐富每個人所看到的內(nèi)容形式和類別,讓用戶們都能夠享受著良好的視頻內(nèi)容和評論氛圍。
專欄作家
師天浩,微信公眾號:shitianhao01,人人都是產(chǎn)品經(jīng)理專欄作家??萍甲悦襟w人,曾就職于博客中國、互聯(lián)網(wǎng)實驗室、百度等公司,曾在《南方都市報》《計算機應用文摘》等報紙雜志刊文。
本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協(xié)議。
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發(fā)揮!