圖片來源: 

Ruby Chen, OpenAI

OpenAI宣布大型語言模型(LLM)GPT-4又有新用途,可協助社群網站或論壇管理員審查平臺上的大量內容,可將內容審查政策更新周期由幾個月縮短為幾小時,也能減輕人力負擔,並降低對審查員的心理傷害。

Reddit、臉書、X(即Twitter)等社群平臺網頁內容仲裁、審查需要高度敏感度、對語境有深刻了解的鉅細靡遺檢查,且要能快速因應新的應用場景而調整,是耗時且艱鉅的任務。過去大部分平臺主要仰賴人力檢視大量內容,以挑出有害、不良的內容,AI技術則只有小型為特定產業開發的機器學習模型。傳統模式不但速度很慢,也對人類審查員造成心理壓力或傷害。

為此,OpenAI已著手研究如何利用LLM解決上述挑戰。像GPT-4之類的語言模型能理解和生成自然語言,因而具有內容審查的潛力。這些模型可根據企業提供的政策指引下判斷以審查平臺上的內容。

OpenAI經過自行測試將GPT-4用於內容政策開發,及實際的內容審查判斷,認為成效顯著。該公司表示,內容管理系統使用GPT-4的優點在於,可加速審查政策迭代更新,將每個周期由幾個月縮短為數小時,以加快平臺的管理靈活性。GPT-4也能解讀冗長政策文件中的規則,以及不同規則間細微的差異,並立即套用到政策更新,使其標註更為一致化。OpenAI相信,未來AI將可協助數位平臺管理,根據平臺專屬的政策來審查內容,可利用AI協助模型,簡化人力負擔,並減輕人類審查員的心理壓力。

現在企業或平臺組織可透過OpenAI API實作以AI協助建立自己的管理系統。

臉書、TikTok這類資源較豐沛的大型平臺可能已有自己的大型語言模型,因此OpenAI提供的方法將可吸引較小型的社群網站或論壇。

實作方法是,平臺管理員先撰寫出政策指引,並以幾個範例、加上根據政策而下的標註,作為標準的訓練資料集。第二步是讓GPT-4讀取政策,由其自行為資料集加標註(不看人類寫的正確答案)。第三步是讓GPT-4比較自己和人類的答案,政策專家可以叫GPT-4說明它標註的理由,分析政策定義中模稜兩可的地方、釐清模糊不清之處,再建議更清楚的政策用語。二、三點可以反覆執行到人類滿意為止。

OpenAI指出,這種迭代流程可提升審查政策品質,以此設定分類器可讓政策和內容審查作業擴大應用更多內容。若平臺已有參數較少的小模型,也可以使用GPT-4的預測來微調大模型,以便用於審查更大量資料。

不過協助內容判斷的LLM可能會在模型訓練時造成偏見,因此OpenAI再次重申AI判斷的結果輸出需要經過人類檢查及驗證,並不時維護。但OpenAI仍然表示,LLM可在某些部分取代人類,使人類審查員更專注在解決更複雜的案例。

熱門新聞

Advertisement