以2006至2017間真/假資訊作為分析的數據庫,針對假新聞在推特(Twitter)上的傳播模式做了研究。Aral團隊發現假消息(假新聞)的傳播速度、深度以及廣度,在這三個構面上都比真消息來得快速,假消息傳播的速度甚至為真消息的6倍。Facebook的演算法所投放的高互動內容也鑲嵌著憤怒、仇恨、正義魔人的言論,而浸泡在演算法黑洞裡的使用者反而會因此變得更加極端化。該報導中也提到2016年的網路調查發現,Facebook約有64%的使用者加入極端主義傾向的社團,全因Facebook演算法的推薦所致。演算法的推薦機制試圖勾出人類本能的不理性衝動,而在背後的科技巨頭則大把地收割使用者的注意力貨幣。監控資本主義的商業模型損害了民主社會的言論環境,更糟的是,無法自拔的使用者甚至因此失去了性命

2022-12-03_085525

【投書】一個英國少女之死:社群媒體演算法的推薦圈套
作者 呂國維
2022-12-01
在演算法的推薦機制下,使用者還有選擇的自由嗎?如果演算法推播的內容會損害人們的身心健康,那麼,誰又該為此負責?
【投書】一個英國少女之死:社群媒體演算法的推薦圈套 | 呂國維 / 多元發聲.讀者投書 | 獨立評論 https://bit.ly/3VICwAl
2022年9月30日,BBC報導了一則震撼資訊科技界的新聞:英國倫敦法院宣判社群媒體演算法的推薦內容導致英國14歲少女Molly Russell最終自殺身亡。有鑒於該事件裡的主角Molly Russell是目前為止第一個遭到法院判決認定因為演算法推薦的內容而死的使用者,世界各地陸續開始有不少媒體報導該議題、專家學者加入討論。受理該次案件的驗屍官Andrew Walker不以自殺說明Molly Russell的死因,反而特別提到社群媒體的影響:
Molly Rose Russell died from an act of self-harm while suffering from depression and the negative effects of online content.
(Molly Russell的死,是受到憂鬱症以及網路推播的負面內容所導致的自傷行為。)
在這次事件曝光以前,人們或多或少都知道社群媒體演算法有時會推播不合適的內容給觀看者,更甚者,可能會因為這些推播的內容而影響人們的身心狀況。然而,從來沒有人可以拿出證據並且確切地宣稱「演算法推薦給我的內容就是我的焦慮症元凶」,而科技巨頭們也極力宣稱「個人化的內容是基於使用者的習慣作為推薦的依據」。Molly Russell的不幸離世,直接敲響了資訊科技界的叩問:
在演算法的推薦機制下,使用者還有選擇的自由嗎?如果演算法推播的內容會損害人們的身心健康,那麼,誰又該為此負責?
一場於美國舉辦的聽證會也許可以回答這些問題。
科技巨頭對演算法的刻意為之
2019年6月25日,前Google軟體工程師Tristan Harris出席美國國會聽證會,說明科技巨頭所打造的演算法正在讓社會變得愈來愈極端。Tristan多次提及演算法的推薦內容並不是偶然產生,而是刻意設計(It’s not by accident but by design.)。每個使用者開啟軟體時會觸發屬於他的個人模型(Avatar),使用者在網路上留下的足跡通通都會被該模型紀錄下來,作為分析行為模式的數據原料。現今科技巨頭在競逐的是,誰的模型可以更準確預測使用者的行為,再將該行為模型賣給商人。史丹佛大學教授Shoshana Zuboff將這樣的商業模式稱為「監控資本主義」(Surveillance Capitalism)。
以Google旗下的影音平台YouTube為例,每當我在觀看影片時,影片背後的演算模型也在不斷收集分析我的個人數據,演算法則會依據這些數據分析,並推薦我可能會喜歡的影片內容。Tristan提到「YouTube的影片閱覽數有70%是演算法的推薦內容貢獻的。」換句話說,演算法的推薦機制創造了一種自由選擇的假象:我所選擇的影片,實際上是一場精心設計的預測,我的每一個選擇只是為了印證這個模型的精確性。
類似的效應也能從魔術師的手法窺見。在紙牌魔術的手法中,有一種稱為「迫牌」的手法。魔術師會洗亂整副撲克牌,甚至交由觀眾洗牌也沒問題;接者,魔術師會邀請觀眾抽一張牌,而這張牌正是魔術師預設要讓觀眾抽到的牌。換句話說,藉由魔術師的手法操作,讓觀眾有「自由選擇」的錯覺;然而,這一切都是在魔術師的操控之下,如同演算法的推薦機制。只不過,魔術師只能進行一對一的操弄,YouTube的演算法可以一次操弄至少20億用戶,不分日夜、全年無休。(根據國際資訊統計公司Statista的報告,截至2021年YouTube在全球約有22.4億的用戶。)
演算法的推薦機制創造了一種自由選擇的假象:我所選擇的影片,實際上是一場精心設計的預測,我的每一個選擇只是為了印證這個模型的精確性。圖片來源:iama_sing/Shutterstock
透過演法算讓社會變得更極端
那麼,誰又該為此負責呢?Tristan在聽證會時特提到:
The polarization of our society is actually a part of the business model.
(社會的極端化也是這商業模式的一環。)
為了在平台上留住最多的用戶,科技巨頭們不斷修改平台的設計,試圖在使用者所經過的每一處創造最大的參與度。2018年,美國麻省理工學院(Massachusetts Institute of Technology)資訊科學家Sinan Aral以2006至2017間真/假資訊作為分析的數據庫,針對假新聞在推特(Twitter)上的傳播模式做了研究。Aral團隊發現假消息(假新聞)的傳播速度、深度以及廣度,在這三個構面上都比真消息來得快速,假消息傳播的速度甚至為真消息的6倍。
Sinan Aral於演講公布的研究結果,縱軸為真假消息所附帶的情緒分類,橫軸座標則為用戶的參與度,數值越高代表參與度越高。圖片來源:TED.com
Aral的團隊接續分析不同真/假消息的互動、參與,在針對不同情緒的統計上,如:信任、喜樂、期待、難過、憤怒、害怕、噁心、驚喜,發現在「噁心、驚喜」的構面上,假消息的互動(回覆)比真消息還要高得多(上圖紅色框框所示),接續下來的則是「期待、憤怒、害怕」,真假消息的互動皆差不多。從Aral的研究可以發現,相比於正面情緒(信任、喜樂)置入負面情緒的內容(噁心、憤怒、害怕),Twitter的使用者互動率反而比較高。
The Verge的報導也提到,Facebook的演算法所投放的高互動內容也鑲嵌著憤怒、仇恨、正義魔人的言論,而浸泡在演算法黑洞裡的使用者反而會因此變得更加極端化。該報導中也提到2016年的網路調查發現,Facebook約有64%的使用者加入極端主義傾向的社團,全因Facebook演算法的推薦所致。
此外,Tristan在聽證會上提到,YouTube的推薦影片前15名的關鍵字中也有負面情緒的痕跡:
仇恨(hates)
揭露(debunk)
殺死(destroy)
抹滅(obliterate)
Tristan形容這是一場直衝腦幹的競爭(a race to the brainstem),演算法的推薦機制試圖勾出人類本能的不理性衝動,而在背後的科技巨頭則大把地收割使用者的注意力貨幣。監控資本主義的商業模型損害了民主社會的言論環境,更糟的是,無法自拔的使用者甚至因此失去了性命;然而,Tristan認為真正該究責的並非是檯面上的執行長、創辦人、程式設計師,而是禁止這一套不擇手段獲取利益、榨取網路使用者數據的商業模式。
質疑使用數據的代價
也許有些人會提出疑問:反正YouTube、Facebook、Instagram、Google、Twitter這些公司都沒跟我收錢,我貢獻一點個人數據做為交換應該很合理吧?
事實上,表面上聽起來很合理的使用條款卻不是等價的交換。而這疑問背後可能的原因在於,使用者對於數位個資的用途仍不夠理解,而輕易地交出了自己的個人數據。試想,醫生、律師、保險公司都有你的個人資料,但是,你會因此接受他們在提供你服務之餘還銷售你的個人資料嗎?若是上述的從業人員銷售客戶的個人資料,將會面臨法律上的制裁;同樣的,科技巨頭對於個人數據的強取豪奪,進而建立個人行為預測模型再銷售給商人,也應該被究責、懲罰。
Molly的父親歷經了長達5年(2017~2022)的訴訟後,終於讓法院說出他的訴求「必須主動監管社群媒體上的內容」。他的努力無法再度喚回Molly的燦笑,但是敦促著司法界以及公民大眾必須更有意識地使用社群媒體,必要時更需要放大檢視。畢竟,這些科技巨頭所允諾我們「自由」的承諾,若是真的如此唾手可得,那將會付出極大的代價。
(作者為淡江大學資訊傳播學系學生。)【投書】一個英國少女之死:社群媒體演算法的推薦圈套 | 呂國維 / 多元發聲.讀者投書 | 獨立評論 https://bit.ly/3VICwAl

 
arrow
arrow
    全站熱搜

    nicecasio 發表在 痞客邦 留言(0) 人氣()