人工智能在教育、醫療與職涯發展領域日益普及,然而其「中立性」正受到嚴重質疑。德國維爾茨堡-施韋因富特科技大學(THWS)人工智慧教授伊凡·雅姆希可夫(Ivan Yamshchikov)率領的研究團隊近日發現,主流大型語言模型(包括ChatGPT)在給予求職建議時,會系統性地對女性產生偏見。
研究團隊建立多組背景條件完全相同、僅性別不同的虛擬求職者檔案,並要求AI建議合理的薪資期望。結果發現,ChatGPT O3模型建議女性開價28萬美元,男性則高達40萬美元,差距高達12萬美元。此現象在法律、醫療、商業與工程領域尤為明顯,僅在社會科學領域差異最小。
更值得警惕的是,AI不僅在薪資建議上展現偏差,對職涯規劃與行為建議也存在性別差異,卻從未對使用者揭示可能的偏見來源。這並非首次有AI因性別偏誤引發關注。亞馬遜2018年曾因招聘系統歧視女性求職者而棄用相關工具,2024年亦有醫療AI被發現低估女性與非裔病患病情。
研究團隊呼籲制定嚴格的倫理標準與獨立審查制度,以避免AI在關鍵場景中複製甚至強化社會偏見。他們警告,若不審慎監督,「客觀幻象」恐成為AI最危險的陷阱。(編輯部)