2015年5月12日 星期二

Facebook 説“意識囚禁” 錯在用户文字


互聯網的發展信息的爆發,會不會加速“迴音室”(echo chamber)效應?在這個時代,我們每天都會獲得很多信息,而信息過濾機制,具體地説是那些看不見的算法,讓我們只跟政見相同的人交朋友,只看到我們想看到的東西,只聽到自己認同的觀點,似乎這個世界就是我們想得那樣,不斷重複之後,那些觀點不斷加深,最終變成一個只能聽到自己聲音的“密室”。這就是迴音室效應(echo chamber effect)。可怕的是,像FacebookGoogle這樣的巨頭,它們一直在努力改進算法,讓我們深陷其中。

而今天發表在《科學》雜誌上一篇名為《Exposure to ideologically diverse news and opinion on Facebook(Facebook的消息和觀點呈現意識形態多樣化)》的論文則得出了不同的觀點。在這篇論文中,Facebook數據科學家們首次嘗試量化社交網絡的信息流(News Feed)羣分用户的程度。根據該論文的研究結果,迴音室效應的直接原因並非Facebook的算法,而是用户本身。

在過去6個月的時間裏,Facebook的研究人員回顧了1010萬個美國的匿名賬户,收集這些用户的網友信息和反應意識形態偏好的狀態。結果發現,這些人不會總是處於觀點相同的環境中,而是大部分時間出現在觀點不同的地方。研究人員表示,Facebook的算法讓自由派有8%的時間存在於單一的觀點中,而保守派則是5%的時間。這説明在大部分時間裏,Facebook沒有讓用户侷限接受同類的信息,而是多元化的信息。

Facebook的算法會通過用户的個人喜好決定News Feed信息流的鏈接,而該研究發現,信息的接受不完全決定於算法,還有很大一部分原因是用户本身是否點擊。這個的意思是,算法只是決定信息的呈現,是否接受,還是由用户自身決定。

以上研究的結果,換句話來説就是,Facebook的算法阻礙用户接受多元化的觀點的程度遠遠比不上用户本身。就是説,用户應該為只有單一意識形態而且“活在自己的世界”負責。

對此,有批評人士指出,這份研究論文有嚴重的邏輯缺陷。首先是Facebook的算法已經過濾了一些消息,用户看到的是Facebook自以為用户喜歡的,而後的不斷重複操作更是加深了這種“自以為是”和“單一觀點”。而且還有一些訂閲功能,這兩方因素不斷加強“錯誤”。在這樣的輪迴中,被算法過濾的信息、用户不去點擊某個鏈接查看某些消息,並不等於用户不接受,不認同。

需要提出的是,在Facebook的這次研究中,用户的樣本選擇有偏差,侷限於把定義自己為自由派或者保守派的用户。而且研究樣本量僅佔14億用户一小部分。

事實上,這不是Facebook第一次進行用户研究了。早前,該公司還進行了一項關於用户情緒與Facebook信息的關係,因為有觀點認為Facebook在操縱用户的情緒。如果這一次Facebook的研究數據是正確的,那麼,形成迴音室的真正原因是我們本身。

--------------------------------------------------------------------------------
心得:
個人信息較弱時,人們往往較仰賴社會信息。當交流互動高度集中在群體內部,而且十分熱烈時,你會一再接觸到同樣的想法。但因為構想在人之間流傳時,往往會略為改變,你可能不會意識到,它們不過是相同構想不斷重復而已。你可能會以為,大家都是經過獨立思考,而得出相似的交易戰略,因此會過度相信這些資訊,這就是「回音室效應」。

這篇文章就是在探討,在資訊爆炸的時代,我們每天都要解觸到,許多來自四面八方的資訊,但是如果臉書又自動幫我們過濾,甚至是只讓我們知道部分的資訊,這樣是否會影響我們吸收不同的資料來源或是價值判斷,有時候我們不會點擊相關資訊,並不代表我們往後不會想了解。

而文章中所提到的研究,則認為訊息上的接收,最主要的因素還是使用者自身的選擇,臉書只是基於基本上的過濾,所以如果研究上所說的屬實,我覺得在電腦自動的篩選及使用者的接受權益上要取得平衡!

沒有留言:

張貼留言