美國國家公共廣播電台(NPR)近日報導,社交媒體巨頭Meta計劃大幅擴大人工智能(AI)在產品風險評估中的應用比例,目標讓高達九成的審核任務由AI自動完成,涵蓋範圍包括青少年風險、暴力內容與虛假資訊等誠信領域。
據內部文件透露,Meta目前已將審核流程標準化為:產品團隊需填寫問卷交由AI系統分析,系統即時回傳風險評估結果,團隊再根據AI建議修正產品後才能上線。報導指出,這一流程取代了過去多依賴人工的前期風險評估機制。
不過,多位現任與前任Meta員工對此策略表達擔憂,指出AI可能無法察覺人類能識別的敏感問題,恐導致潛在傷害無法及時阻止。對此,Meta回應稱,仍會保留人工專家審核新穎或複雜的案例,僅將低風險決策交由AI處理。
值得注意的是,Meta日前發布2025年首份誠信報告,數據顯示在調整內容政策後,雖然刪文數量下降,但霸凌、騷擾和暴力血腥內容略有上升,引發對AI主導審核準確性的關注。(編輯部)