在當前大模型競爭激烈的背景下,華為最新發布的 openPangu-Embedded-7B-v1.1 為業界帶來突破性進展。這款參數規模僅70億的開源模型,首次實現了快思考與慢思考模式的自由切換,既能應對簡單任務的高效回應,又能處理複雜問題的深度推理,填補了開源模型在此能力上的空白。
長期以來,大模型在推理時往往需在「快」與「慢」間二選一:簡單任務若採慢思考會冗長低效,複雜任務若用快思考則精度不足。openPangu-Embedded-7B-v1.1 引入全新快慢思考自適應機制,既可手動切換,也能依問題難度自動選擇模式。簡單題它快速給答,複雜題則循序推理,達到效率與準確率兼得的效果。
實驗結果顯示,在中文綜合知識測試集 CMMLU 上,新模型在保持精度不變的情況下,平均思維鏈長度縮短近 50%,大幅提升回應效率。同時,在數學挑戰與程式碼測試中,模型在慢思考模式下的精度與此前版本相當,確保了嚴謹的推理能力。
像人一樣進階學習
華為盤古團隊並未沿用傳統「填鴨式」訓練,而是採用漸進式微調策略(Iterative Distillation)。模型在每一輪學習中僅挑選難度適中的樣本訓練,保持持續挑戰又不至於超出能力範圍。每次迭代後,不同版本參數透過融合保留已學知識,再逐步挑戰更高難度數據,形成良性循環。
這一策略讓模型不再被動接受資料,而是像學習者般「階梯式」進步。實驗表明,這種方法顯著提升了模型的穩定性與泛化能力。
在訓練方法上,團隊設計了兩個階段:第一階段,透過在訓練數據中加入快/慢標識符號,讓模型學會在明確指令下切換思維方式,猶如安裝上「手動變速箱」。
第二階段,則進一步取消外部提示,要求模型依題目難度自行決策。研究團隊利用「優中選優」的數據生成方法,讓模型從不同解答中挑出最佳方案並以此自我微調,最終學會了自動判斷何時快答、何時慢推。這使得模型如同擁有「自動變速箱」,在無需人為干預下可靈活選擇推理模式。
1B 模型表現亮眼
除7B升級外,華為還同步推出openPangu-Embedded-1B 輕量級模型,專為邊緣AI部署優化。這款僅10億參數的模型,透過昇騰硬體架構優化與多階段訓練策略,在多項權威評測中表現超越同級,甚至追平更大模型 Qwen3-1.7B,展現出極高的參數性能比。
這意味著在資源受限的場景中,國產小模型也能提供媲美大模型的效果,為邊緣計算與行業應用帶來更多可能性。
openPangu-Embedded-7B-v1.1 的發布,不僅提升了推理效率,也展現了國產大模型在技術路線上的創新能力。它突破了開源模型快慢思考不可兼得的瓶頸,在精度保持的同時大幅縮短推理步驟,兼顧應用效率與可控性。
業界觀察人士認為,具備快慢思考自適應能力的模型,將在教育、科研、金融與邊緣運算等場景中釋放巨大潛力。對華為而言,這不僅是技術層面的迭代,更是盤古系列在全球開源大模型格局中的戰略性突破。 (編輯部)