圖片來源: 

photo by Alex Haney on unsplash

連續向華爾街日報提供臉書(Facebook)內部研究的爆料者,在本周日(10/3)曝光了,她是Frances Haugen,為臉書公民不實資訊團隊的前首席產品經理,當天她接受美國哥倫比亞廣播公司(CBS)《60分鐘》(60 Minutes)節目的專訪,表示她挺身而出是因不滿臉書持續以自身的獲利優於公眾利益。

現年37歲的Haugen畢業於麻州奧林工程學院的電子與計算機工程系,並取得哈佛大學的MBA文憑,為演算法產品管理的專家,曾任職於Google、Pinterest、Yelp及臉書,她在2019年進入臉書,負責公民誠信,具體的工作內容是管理選舉風險,包含不實資訊在內,並在今年5月離職。

Haugen說,她所取得的文件在臉書內部是公開的,幾乎所有員工都能取得。這幾周以來,《華爾街日報》根據Haugen所提供的文件,陸續踢爆了臉書的貴賓專案XCheck臉書演算法造成分化販毒或人口販賣如何公開利用臉書平臺,以及Instagram對青少年所造成的負面影響等。

Haugen不僅向《華爾街日報》爆料,也向美國證券交易委員會(SEC)投訴臉書的不當行為,認為身為美國上市公司的臉書,隱暪了對投資人而言重要的資訊。

她在接受《60分鐘》專訪時指出,她一再地在臉書內部看到,一旦公司利益與公眾利益有所衝突,臉書總是選擇自己的利益,她曾經見過許多社交網路,但臉書是當中最糟糕的了。

Haugen舉了幾個例子,其中之一是她參與臉書是為了維護選舉正義,抑制不實資訊,但在美國大選結束後,臉書便決定解散公民誠信團隊,這讓臉書成為國會暴動者組織活動的平臺之一。臉書的確為了2020年的美國總統大選設置了安全系統來減少不實資訊,但許多的改變都只是暫時的。

另一個例子涉及臉書的演算法。她說,臉書可能有數千筆可以推薦給使用者的資訊,但當只能選擇其中100筆時,臉書會挑出使用者過去最常觀看的資訊類別,此一所謂的最佳化內容卻經常是不實資訊或令人憤怒的內容,因為它們更容易吸引使用者,也讓使用者停留在臉書的時間變得更長,更有機會點選臉書所提供的廣告,替臉書創造收入。臉書深知改變演算法就會減少收入的後果。

Haugen認為臉書放大了人性中的惡,而她相信社交網站其實可用來展現人性中最好的一面。

《60分鐘》在專訪Haugen之前,也同時發了專訪邀請予臉書高層,但遭臉書拒絕。臉書在節目播出前於內部發出了備忘錄,解釋自己對於極化(Polarization)與選舉的立場,企圖安撫軍心,另也提供了聲明予《60分鐘》,表示臉書團隊每天都嘗試在保護人們與言論自由之間取得平衡,亦努力改善不實資訊與有害內容的散布,暗示臉書鼓勵不當的內容且毫無作為是不正確的。

臉書也強調,如果有任何一個研究能夠找出對此一問題的精確解決方案,那麼不管是政府、科技產業或社會早在很久之前就能克服它。

熱門新聞

Advertisement