圖片來源: 

YouTube

Mozilla本周公布了為期長達8個月的YouTube影片調查報告,此一調查是透過瀏覽器擴充程式RegretsReporter,由使用者自願參與及安裝,並在遇到令人反感的YouTube影片時回報。調查發現,在使用者回報的反感影片中,有71%是由YouTube推薦的。

RegretsReporter是個開源擴充程式,支援Firefox與Chrome瀏覽器,總計有來自全球190個國家的37,380名使用者安裝了該程式,不過,從2020年7月到2021年5月間,只有1,662名使用者提交了3,362份報告。

調查詢問了使用者遇見反感影片的途徑,有71%回應是來自YouTube演算法的推薦;而在這些由YouTube推薦的影片中,有9%,大約200個直接違反了YouTube的社群政策,因為它們隨後就被YouTube刪除了,然而,這些影片在被移除之前,已創下了1.6億的觀看次數。

另一個值得觀察的是,調查也發現非英語系國家的YouTube使用者,遇到反感影片的機率高於英語系國家。

使用者所提報的令人反感的影片,涵蓋了散布疫情恐懼的內容、錯誤的政治資訊、不適當的兒童卡通,以及與暴力、仇恨及詐騙相關的內容。此外,有些內容雖然並未直接違反YouTube政策,卻遊走於政策邊緣。

Mozilla分析,相較於使用者自行搜尋的影片,由YouTube主動推薦的影片被視為反感的機率多出了40%,此外,由YouTube推薦的反感影片中,有43.6%與使用者先前觀看的影片完全無關。

Mozilla資深經理Brandi Geurkink指出,YouTube應承認自己的演算法會傷害及誤導人們,此一研究證實了YouTube不僅是個代管平臺,還主動推薦違反該平臺政策的影片予使用者,而且此一報告很可能只是冰山的一角,希望大眾及立法者能夠督促YouTube擴大其AI演算法的透明度。

總之,Mozilla認為YouTube的推薦演算法大有問題,而且可能存在歧視問題,呼籲包括YouTube在內的各大平臺,都應該公布推薦演算法的透明度報告,並允許使用者退出個人推薦系統,建立推薦AI的風險管理機制,也建議立法者推動一個能夠促進AI系統透明化的法令。

熱門新聞

Advertisement