為何虛假信息能在社交媒體中迅速傳播?

社交媒體是美國乃至全世界的人獲得新聞的主要來源之一。眾所周知,用戶在獲取新聞的時候會接觸到一些虛假信息,包括陰謀論、標題黨(clickbait)、偽科學(pseudo science),甚至捏造的“假新聞”(fake news)。

社交媒體是美國乃至全世界的人獲得新聞的主要來源之一。眾所周知,用戶在獲取新聞的時候會接觸到一些虛假信息,包括陰謀論、標題黨(clickbait)、偽科學(pseudo science),甚至捏造的“假新聞”(fake news)。
出現這么多的虛假信息并不奇怪。首先,垃圾郵件和網絡欺詐對于犯罪分子來說是有利可圖的;其次,政府和政治宣傳需要這些信息維護自己的黨派和經濟利益。但是,低信譽內容如此簡單和迅速地傳播表明了,社交媒體平臺背后的人或者算法容易受到操縱。
 
喬凡尼·盧卡·錢帕格利亞(Giovanni Luca Ciampaglia)是印第安納大學網絡科學研究所助理研究員(Assistant Research Scientist,Indiana University Network Science Institute, Indiana University);菲利普·門采爾(Filippo Menczer)是印第安納大學計算機科學與信息學教授(Professor of Computer Science and Informatics),同時他還是復雜網絡和系統(tǒng)研究中心主任(Director of the Center for Complex Networks and Systems Research,Indiana University)。在他們的研究中發(fā)現存在三種誤差,能夠使社交媒體生態(tài)系統(tǒng)有意或者無意的受到錯誤信息的影響。同時,印第安那大學社交媒體觀察站(Observatory on Social Media)正在開發(fā)新的互聯網工具,幫助人們意識到這些漏洞并保護自己免受外部的惡意攻擊。
 
人們大腦中的偏差
 
認知偏差(cognitive biases)源自于大腦處理每天遇到的信息的方式。大腦只能處理有限數量的信息,而過多的傳入刺激可能會導致信息過載。這會使大腦在處理社交媒體信息時,對其質量的判定產生嚴重的影響。對于用戶有限的關注而言,激烈的競爭意味著即使人們更喜歡分享高質量的內容,一些質量低下的信息也會鉆空子快速傳播。
 
為了避免這種情況,大腦會有應對技巧。這些方法通常是有效的,但也可能在錯誤的背景下產生誤差。當一個人決定是否在社交媒體上分享某個故事時,大腦會產生一種認知捷徑。雖然一篇文章的標題不能很好的表示其準確性,但人們受到標題情感內涵的影響很大,文章的作者會產生更大的影響。
 
為了應對這種認知偏差,并幫助人們在分享之前更多地關注信息的來源,喬凡尼和菲利普團隊開發(fā)了“辨假”(Fakey)應用程序,它是一款模擬典型社交媒體新聞的游戲,給用戶推送來自主流新聞和低信譽來源的文章,用戶經過篩選,通過分享可靠來源的新聞、標記可疑內容并進行事實核查來獲取積分,這可以提高用戶的新聞素養(yǎng)。在這個過程中,他們學會識別信息來源的可信度,比如不同黨派的主張和情感豐富的新聞頭條。
 
社會環(huán)境因素
 
社會是偏差的另一個來源。當人們直接與同齡人交往時,引導他們選擇朋友的社會偏見會影響他們看到的信息。
 
喬凡尼和菲利普團隊的研究結果顯示,通過簡單地查看其朋友的黨派偏好(partisan preferences)就可以確定推特(Twitter)用戶的政治傾向。他們通過對黨派傳播網絡結構的分析發(fā)現,當社交網絡緊密聯系在一起并與社會其他部分脫節(jié)時,不論信息準確與否,它的傳播速度都很快。
 
不管是有意還是無意地,如果信息來源于人們自己的社交圈,那么對信息的評估都是可以操作的。例如,在多黨派競爭中,如果有好友一直在耳邊宣傳某一黨派的優(yōu)勢,勢必會受到影響。這也解釋了為什么如此多的網絡對話最終轉變?yōu)椴煌后w的對抗。
 
為了研究在線社交網絡的結構如何使用戶容易受到虛假信息的影響,喬凡尼和菲利普團隊制作了胡克西(Hoaxy),一個可以跟蹤低信譽信息的傳播途徑,并將這個過程可視化的系統(tǒng)。通過利用胡克西將2016年美國總統(tǒng)選舉期間收集的數據進行分析得到,分享錯誤信息的推特賬戶幾乎完全與事實核查員所做的修正切斷聯系。
 
當深入了解傳播錯誤信息的賬戶時,研究發(fā)現這些賬戶屬于同一個核心賬戶組,他們之間相互轉發(fā)的頻率非常密集,甚至有一些賬號是電腦操作的。而僅僅在質疑其合法性或與他們的主張相反時,這些賬號才會引用或者提及事實核查組織。
 
算法造成的偏差
 
第三組偏差直接產生于社交媒體的算法。無論是社交媒體平臺還是搜索引擎都會使用這些算法。這些個性化技術的目的是為每個用戶選擇最吸引人的相關內容。但這樣做,最終可能會強化用戶的認知和社會偏差,從而使他們更容易被操縱。
 
例如,在許多社交媒體平臺中內置詳細的廣告工具,傳播虛假信息的人們可以利用它,將信息進行修改,推送給那些已經傾向于相信虛假信息的用戶。
 
此外,如果用戶經常從臉書(Facebook)點擊某個特定來源的新聞鏈接,臉書將更頻繁地向該用戶展示該網站的內容。這種所謂的“過濾泡沫”(filter bubble)效應可能會將人們從不同的角度隔離開來,從而強化確認偏差。
 
喬凡尼和菲利普的研究結果表明,與維基百科(Wikipedia)這樣的非社交媒體網站相比,社交媒體平臺讓用戶接觸到的資源更少。因為這是在整個平臺的水平上,而不是針對單個用戶,可以稱之為“均勻性偏差”。
 
社交媒體的另一個重要組成部分是通過點擊量確定平臺上正在流行的信息。研究還發(fā)現,如果某種算法的目的是促進流行內容,它可能會對平臺上信息的總體質量產生負面影響,這種可以稱之為“流行偏差”。這會助長現有的認知偏差,強化了不論質量如何,只要受歡迎就可以的風氣。
 
所有這些算法偏差都可以被社交機器人操縱,社交機器人是指通過社交媒體賬戶與人類互動的計算機程序。大多數社交機器人,比如推特的“大笨鐘”(Big Ben),都是無害的。但是,一些人隱瞞了他們的真實意圖,將其用于惡意的目的,例如通過互相轉發(fā)促進虛假信息的傳播。
 
為了研究這些操作策略,喬凡尼和菲利普團隊開發(fā)了一種檢測社交機器人的工具,稱為寶通計量(Botometer)。它可以通過查看推特賬戶的不同特征(比如發(fā)帖時間、頻率以及互相關注的賬戶等等),利用機器學習來檢測賬戶信息。雖然它現在還不完美,但已經檢測到多達15%的推特賬戶為社交機器人。
 
在2016年美國總統(tǒng)競選期間,通過將胡克西和寶通計量結合使用,喬凡尼團隊分析出了錯誤信息傳播網絡的核心。這些機器人會給易受攻擊的用戶提供虛假的聲明和錯誤的信息。首先,他們通過推特候選人的標簽或提及轉發(fā)該候選人,以此來吸引支持該候選人的用戶的注意力。然后,機器人可以夸大虛假聲明,通過轉發(fā)來自低可信度來源的,與某些關鍵詞相匹配的文章誹謗對手。
 
喬凡尼和菲利普團隊制作的互聯網工具為用戶提供了許多關于辨別虛假信息的方法,在一定程度上可以保護人們免受傷害。許多研究表明,個人、機構的賬號甚至整個社會都可以在社交媒體上被操縱,仍有許多問題有待解決。重要的一點是要發(fā)現這些不同的偏差是如何相互作用的,這可能會造成更復雜的漏洞。解決方案不會僅僅是技術上的,還必須考慮到認知和社會方面存在的一些問題。

責編:微科普

分享到:

>相關科普知識

日本女v片一区二区,公侵犯人妻一区二区,国产亚洲中文日本不卡2区,91久国产成人在线观. www.sucaiwu.net