示意圖,與新聞事件無關。

圖片來源: 

Facebook

假新聞與仇恨內容激化對立,臉書2016年起大力掃蕩,不過有研究發現,臉書以人工檢視網站仇恨言論的標準不一,以致無法完全防堵。

為了打擊種族主義、性別歧視或倡導暴力的仇恨內容,臉書去年以來招募了7,500多名內容檢查員,來檢視由20億使用者標記有問題的貼文。公民團體暨新聞媒體Propublica為驗證臉書檢查的公正性,去年8月起發動使用者舉發臉書仇恨內容篩檢不當的一項研究。

該網站到年底收到900多則檢舉,最後找出49則不適切貼文未刪除、及少數沒有問題卻遭到刪除,隨後將本研究寄給臉書要求說明。臉書最後承認其中22則檢查員判斷不當,19則沒有問題,有6則檢查員沒有做出判斷,原因是臉書用戶標記不正確。另2則沒有足以判斷的資訊。

Propublica認為這種標準不一致主要是因為臉書經常變更貼文規定,導致人為檢查無法標準化實施。

臉書副總裁Justin Osofsky對判斷失準做出了道歉。Osofsky表示,臉書每周刪掉的貼文高達6.6萬則,但不是所有都因為是仇恨內容而被刪。有些文章雖然品味差,像是批評公眾人物、宗教、工作或政治意識型態,但未到仇恨言論的地步。此外,有些刪文要求重覆太多次,也會被臉書忽略。例如一則倡導殺害猶太人的粉絲頁,直到被媒體追問才撤下。

臉書除了道歉外,也承諾2018年將擴增安全部門到2萬人,包括內容檢查員及其他員工,以便更有效打擊仇恨言論。

熱門新聞

Advertisement