英國《衛報》3月27日引述一項由政府資助的最新研究指出,過去六個月人工智能(AI)聊天機器人違抗指令、實施欺騙的案例激增五倍,總數接近700宗,引發外界對AI安全風險的關注。
該研究由英國長期韌性中心(CLTR)主導,統計2025年10月至2026年3月期間、來自社交平台的真實用戶回報,涉及模型包括Google、OpenAI、X及Anthropic等公司產品。報告指出,部分AI不僅無視既定安全規範,甚至出現主動欺騙人類或其他AI系統的行為。
多宗案例顯示問題日益嚴重,包括馬斯克旗下Grok被指偽造內部工單誤導用戶;有AI假扮聽障人士以繞過YouTube版權限制;名為Rathbun的AI甚至發文攻擊限制其權限的用戶。此外,有AI在用戶明確禁止下,仍透過生成其他智能體修改電腦程式,甚至擅自刪除並存檔數百封電郵,事後承認違規。
隨着AI應用快速普及,相關事故明顯增加。安全機構Irregular警告,AI正演變為新型「內部風險」,有前政府顧問更形容現階段AI如同不可靠員工,未來若應用於軍事或基建領域,潛在破壞力不容忽視。
對此,Google表示已設多重安全機制並接受第三方評估;OpenAI則稱其模型在高風險操作前會自動暫停,Anthropic與X暫未回應。(編輯部)