人工智能公司OpenAI宣布推出兩款全新小型模型GPT 5.4 mini與GPT 5.4 nano,定位為目前能力最強的小型AI模型之一,專為高頻率且對延遲敏感的應用場景設計。公司表示,兩款模型在保持高效能的同時,大幅提升速度與成本效率,可支援更廣泛的商業與開發應用。
OpenAI指出,在程式碼助手、系統截圖解析以及即時圖像推理等需要極低延遲的場景中,小型模型往往比大型模型更具優勢。這類應用更重視快速回應與穩定調用工具,而非單純追求最大模型規模。因此,新推出的GPT-5.4 mini與nano主要針對高頻工作負載進行優化,藉由更快回應與更高效率提升整體產品體驗。
其中,GPT-5.4 mini在程式編寫、邏輯推理、多模態理解以及工具調用能力方面均有顯著提升。OpenAI表示,其整體表現已遠超上一代GPT-5 mini,運行速度亦提升超過兩倍。在多項基準測試中,包括軟體工程測試 SWE Bench Pro 及 OSWorld Verified,該模型的表現已接近體量更大的GPT-5.4完整版本。
在實際應用場景方面,GPT-5.4 mini特別適合需要快速迭代的程式開發流程,例如精準代碼編輯、程式庫導航與前端程式生成等。同時,在多模態任務中,該模型亦能快速解析密集的電腦介面截圖,並完成各類電腦操作任務,提升AI在軟體開發與自動化領域的應用能力。
相比之下,GPT-5.4 nano則定位為該系列中體積最小、成本最低的版本。作為GPT-5 nano的升級版,nano模型專為速度與成本優先的應用而設計,適合部署於文本分類、資料擷取、內容排序,以及負責簡單任務的子代理程式(Subagents)等場景。
強化AI編程能力
OpenAI表示,兩款模型目前已正式向市場開放。其中,GPT-5.4 mini已全面接入API、編碼工具Codex以及ChatGPT平台,並向免費版與Go方案用戶提供體驗。GPT-5.4 nano則暫時僅透過API提供給開發者使用。
在技術規格方面,GPT-5.4 mini於API版本中支援最高40萬Token的上下文窗口,並支援圖像輸入、工具調用、函式呼叫、網頁搜尋、檔案搜尋及電腦操作等多種功能。價格方面,輸入Token費用為每百萬0.75美元,輸出Token為每百萬4.5美元;而在Codex中使用時,僅消耗GPT-5.4配額的30%。
至於GPT-5.4 nano,其API價格更低,輸入Token每百萬僅0.2美元,輸出Token為每百萬1.25美元,適合大規模部署與高頻任務。
業界分析指出,隨著「Vibe Coding」等AI程式開發熱潮持續升溫,OpenAI正進一步強化AI的編程能力。公司近期亦明確將戰略重心聚焦於程式開發與企業應用市場,期望透過更高效的AI工具提升商業生產力。
分析人士認為,小型高效模型的推出,反映AI產業正從單純追求更大模型規模,轉向兼顧性能、成本與速度的實際應用競爭。隨著企業對即時AI服務需求增加,類似GPT-5.4 mini與nano的高效率模型,或將成為未來AI產品的重要發展方向。 (編輯部)