圖片來源:
假新聞與仇恨內容激化對立,臉書2016年起大力掃蕩,不過有研究發現,臉書以人工檢視網站仇恨言論的標準不一,以致無法完全防堵。
為了打擊種族主義、性別歧視或倡導暴力的仇恨內容,臉書去年以來招募了7,500多名內容檢查員,來檢視由20億使用者標記有問題的貼文。公民團體暨新聞媒體Propublica為驗證臉書檢查的公正性,去年8月起發動使用者舉發臉書仇恨內容篩檢不當的一項研究。
該網站到年底收到900多則檢舉,最後找出49則不適切貼文未刪除、及少數沒有問題卻遭到刪除,隨後將本研究寄給臉書要求說明。臉書最後承認其中22則檢查員判斷不當,19則沒有問題,有6則檢查員沒有做出判斷,原因是臉書用戶標記不正確。另2則沒有足以判斷的資訊。
Propublica認為這種標準不一致主要是因為臉書經常變更貼文規定,導致人為檢查無法標準化實施。
臉書副總裁Justin Osofsky對判斷失準做出了道歉。Osofsky表示,臉書每周刪掉的貼文高達6.6萬則,但不是所有都因為是仇恨內容而被刪。有些文章雖然品味差,像是批評公眾人物、宗教、工作或政治意識型態,但未到仇恨言論的地步。此外,有些刪文要求重覆太多次,也會被臉書忽略。例如一則倡導殺害猶太人的粉絲頁,直到被媒體追問才撤下。
臉書除了道歉外,也承諾2018年將擴增安全部門到2萬人,包括內容檢查員及其他員工,以便更有效打擊仇恨言論。
熱門新聞
2024-11-12
2024-11-10
2024-11-13
2024-11-14
2024-11-10
Advertisement