OpenAI推出GPT-5.4

mini與nano 強化低延遲AI應用
19/03/2026
2092
收藏
分享
mini與nano 強化低延遲AI應用

人工智能公司OpenAI宣布推出兩款全新小型模型GPT 5.4 mini與GPT 5.4 nano,定位為目前能力最強的小型AI模型之一,專為高頻率且對延遲敏感的應用場景設計。公司表示,兩款模型在保持高效能的同時,大幅提升速度與成本效率,可支援更廣泛的商業與開發應用。

OpenAI指出,在程式碼助手、系統截圖解析以及即時圖像推理等需要極低延遲的場景中,小型模型往往比大型模型更具優勢。這類應用更重視快速回應與穩定調用工具,而非單純追求最大模型規模。因此,新推出的GPT-5.4 mini與nano主要針對高頻工作負載進行優化,藉由更快回應與更高效率提升整體產品體驗。

其中,GPT-5.4 mini在程式編寫、邏輯推理、多模態理解以及工具調用能力方面均有顯著提升。OpenAI表示,其整體表現已遠超上一代GPT-5 mini,運行速度亦提升超過兩倍。在多項基準測試中,包括軟體工程測試 SWE Bench Pro 及 OSWorld Verified,該模型的表現已接近體量更大的GPT-5.4完整版本。

在實際應用場景方面,GPT-5.4 mini特別適合需要快速迭代的程式開發流程,例如精準代碼編輯、程式庫導航與前端程式生成等。同時,在多模態任務中,該模型亦能快速解析密集的電腦介面截圖,並完成各類電腦操作任務,提升AI在軟體開發與自動化領域的應用能力。

相比之下,GPT-5.4 nano則定位為該系列中體積最小、成本最低的版本。作為GPT-5 nano的升級版,nano模型專為速度與成本優先的應用而設計,適合部署於文本分類、資料擷取、內容排序,以及負責簡單任務的子代理程式(Subagents)等場景。

強化AI編程能力

OpenAI表示,兩款模型目前已正式向市場開放。其中,GPT-5.4 mini已全面接入API、編碼工具Codex以及ChatGPT平台,並向免費版與Go方案用戶提供體驗。GPT-5.4 nano則暫時僅透過API提供給開發者使用。

在技術規格方面,GPT-5.4 mini於API版本中支援最高40萬Token的上下文窗口,並支援圖像輸入、工具調用、函式呼叫、網頁搜尋、檔案搜尋及電腦操作等多種功能。價格方面,輸入Token費用為每百萬0.75美元,輸出Token為每百萬4.5美元;而在Codex中使用時,僅消耗GPT-5.4配額的30%。

至於GPT-5.4 nano,其API價格更低,輸入Token每百萬僅0.2美元,輸出Token為每百萬1.25美元,適合大規模部署與高頻任務。

業界分析指出,隨著「Vibe Coding」等AI程式開發熱潮持續升溫,OpenAI正進一步強化AI的編程能力。公司近期亦明確將戰略重心聚焦於程式開發與企業應用市場,期望透過更高效的AI工具提升商業生產力。

分析人士認為,小型高效模型的推出,反映AI產業正從單純追求更大模型規模,轉向兼顧性能、成本與速度的實際應用競爭。隨著企業對即時AI服務需求增加,類似GPT-5.4 mini與nano的高效率模型,或將成為未來AI產品的重要發展方向。 (編輯部)

檢舉
檢舉類型:
具體描述:
提交
取消
評論
發佈

力報會員可享用評論功能

註冊 / 登錄

查看更多評論
收藏
分享

相關新聞

推薦新聞

找不到相關內容

七日預報