Facebook研究:個性化推薦真的會限制用戶視野嗎?

責任編輯:editor006

2015-05-21 14:53:12

摘自:騰訊傳媒

近些年來,個性化推薦趁著大數據分析的東風,打開頁面只針對你個人口味的訂閱越來越常見。最終Facebook的研究結論表明,人們對信息的自我選擇和自我驗證,可能比個性化算法更加危險。

近些年來,個性化推薦趁著大數據分析的東風,打開頁面只針對你個人口味的訂閱越來越常見。開發(fā)者的初衷本是減輕用戶的搜索負擔,使得他們更即時更準確地接受到自己想要的信息,然而即使是這樣美好的初衷,質疑的聲音也不絕于耳。

個性化遭遇“三大質疑”

1、“回聲室效應”封閉用戶視野?

過度個性化的推薦會引起“回聲室效應”(echo chamber):根據算法的推薦,人們逐漸接收到的都是和自己意見相似的新聞與朋友分享的信息,持不同觀點的人也逐漸形成愈發(fā)封閉的小圈子。

Facebook研究:個性化推薦真的會限制用戶視野嗎?

埃利·帕雷瑟(Eli Pariser)在《過濾泡沫》 (Filter Bubble)一書中也表達了類似的憂慮:“這些個性化算法使得只有和人們的意識形態(tài)一致的信息才會被呈現,人們的視野越來越窄,可以接觸到多元化信息的機會也越來越少。”

對于持不同政治觀點的人們來說,這樣的“過濾泡沫”會讓人們越來越堅持自己的政治理念,拉大不同意識形態(tài)人群之間的差距,造成社會上政治觀點的兩極分化和矛盾。

2、個性化推薦到底準不準?

加入社交因素的產品原理上是為了增加信息分享信息、產品角度上則是提高黏度。

因此個性化推薦只是更適合Circa這類新聞形式的短閱讀,對于RSS訂閱用戶的深度閱讀,反而是一種破壞。此外智能算法不成熟也會導致過多無效信息干擾:導入社交媒體上的資料真能幫助更精準的推薦文章嗎?

而“不智能”的用戶個體也總有一些誤操作。事實上我們在日常生活中也有這樣的體驗,有時候我們誤點了某個商品或者新聞,過于智能的算法就會繼續(xù)為我們推送相關的信息,而這些惱人的信息,本質上是不為我們需要的。

信息過載問題,還是未能解決,而且它同時也攜帶了副作用——漏掉意外信息。

企鵝智酷曾做過個性化推薦的調查,結果顯示只有24%用戶認為產品個性化推薦靠譜、相比于推薦技術,30%用戶還是更相信自己:

Facebook研究:個性化推薦真的會限制用戶視野嗎?

Facebook研究:個性化推薦真的會限制用戶視野嗎?

3、機器能否判斷新聞價值?

假設一條新聞的public value=X,private value=Y,X越大的新聞,越依賴有經驗的人進行運營,而無法進行個性化推薦,例如時政、重大突發(fā)新聞;相反的,Y越大的新聞,則越有可能進行個性化推薦,例如垂直行業(yè)新聞。

Facebook研究:個性化推薦真的會限制用戶視野嗎?

然而因為新聞的本質還是更多的要服務于public value,而公共性與私人性大多數情況下是背離的,所以就算是垂直行業(yè)的新聞,也會有X>Y的情況,依然離不開人工推薦。

再來看讀者,新聞資訊用戶金字塔的基層是追求public value這部分用戶,他們普遍較為懶惰且要求不高(單一的信息獲取就足夠,一般用戶不會同時看多個門戶新聞),但與此同時他們也害怕被時代拋棄,所以利用強大的人工運營提供X值大的新聞就可以滿足他們90%需求。

金字塔頂端是有更多private value需求的用戶,他們比較聰明且時間有限(所以專注在個別領域),有更強的自主意識(不滿足于單一的feeding tube),所以從產品技術的角度可以提供給他們一些可以調節(jié)Y值的簡單工具就可以了(例如RSS訂閱)。而過于智能化的個性化推薦則不必要。

所以,新聞個性化推薦并不靠譜。因為一旦你認為你接受到的新聞足夠有個性,那說明這些信息本質上沒多大新聞價值。

Facebook的辯駁:用戶自我選擇比算法更危險

Facebook作為個性化推薦算法實踐的先驅,尤為擅長采取特定算法來決定用戶的信息源(News Feed)里各種信息的排列順序,面對種種質疑,Facebook數據科學團隊的研究者以1010萬美國Facebook用戶為大數據研究樣本,給出了不同的回答。而此研究結果也發(fā)表在權威科學雜志《Science》上。

Facebook研究:個性化推薦真的會限制用戶視野嗎?

  反駁1 個性化推薦并不會真正把人局限在一個圈子里

在Facebook上,信息的流動是由人們的社交關系網決定的,朋友的政治觀點很多時候也能夠影響人們的觀念。和很多政治博客不同,雖然在Facebook上也存在根據政治傾向抱團的現象,但朋友間仍存在意識形態(tài)上的差異。

Facebook研究:個性化推薦真的會限制用戶視野嗎?

  圖為不同政治傾向的人在面對不同意識形態(tài)的接受比例

平均來說,每個Facebook用戶的好友中,有23%的人和自己的政治意識形態(tài)相反。而人們接觸到的他們朋友分享的信息中,平均有29.5%的信息來自于意識形態(tài)對立的一方。

這也就表明,人們在一定程度上是可以接受到對立面的信息的。

反駁2 即使出現差異化內容,用戶也很少點進去

影響用戶看什么的原因有很多,包括他們?yōu)g覽網頁的頻次,與朋友互動的次數,以及在過去,用戶通過鏈接進入其他網站的頻率。研究在排序后發(fā)現,用戶看興趣外的內容的比例比預想的還要小。保守派實際看到的比他們朋友分享的要少5%,而自由派要少8%。

人們對文章鏈接的個人選擇對他們接觸不同意識形態(tài)信息的影響更大。在信息流里能看到的跨領域內容,對于保守派來說,點擊者大約在17%,而自由派則在6%??偟膩碚f,人們點擊的信息中只有 24.9% 的來自于對意識形態(tài)對立的一方。在自我選擇的信息中,他們更傾向選擇接受和自己觀點一致的信息。

Facebook研究:個性化推薦真的會限制用戶視野嗎?

  圖為自由派和保守派面對不同的信息來源的接受差異

從心理學角度來說,這種情況屬于“自我驗證偏好”(confirmation bias)。它使得人們有一種根據自己已有觀點來接受和解釋信息的傾向,這種傾向導致人們常固守于已有的觀點。為了驗證自己已有的觀點,人們往往依賴于支持性的證據,并只搜索、解釋和回憶與自己信念或假設一致的信息。

Facebook研究:個性化推薦真的會限制用戶視野嗎?

最終Facebook的研究結論表明,人們對信息的自我選擇和自我驗證,可能比個性化算法更加危險。從另一個角度來說,這項研究也證明現代信息技術對人們觀點的影響并沒有先前人們設想的那么悲觀。算法并非“過濾泡沫”的罪魁禍首,人們的自我驗證偏好才是人們接觸異己信息的最大障礙。

個性化大勢所趨,技術仍需完善

Facebook研究:個性化推薦真的會限制用戶視野嗎?

不過該研究發(fā)表后,一些反對者認為,這一研究是 Facebook 的“洗白”文,實際是一個“這不是我們的錯”(“it's not our fault”)類型的研究,其解讀并沒有落在社交網絡的算法是否會加劇人們的偏見上。早在2014 年 6 月,Facebook 發(fā)表在 PNAS 上的一項情緒研究中, 就在用戶不知情的狀況下,調整了他們動態(tài)消息上來自好友的帖子,以測試正面或負面信息的情緒傳染力。

然而,不論Facebook的研究是否為“洗白文”,個性化推薦仍是大勢所趨,順應大數據浪潮是互聯網必不可少的選擇。這項研究也提示我們,想要為人們提供更平衡全面的新聞信息,開發(fā)與社會信息有關的算法仍任重道遠。算法的先天缺陷也需要更優(yōu)的解決方案,不論技術如何發(fā)展,人工篩選也是無法省去的成本。

鏈接已復制,快去分享吧

企業(yè)網版權所有?2010-2024 京ICP備09108050號-6京公網安備 11010502049343號