DoNews12月1日消息,據(jù)DeepSeek官方公眾號公布,兩個(gè)月前,實(shí)驗(yàn)性的 DeepSeek-V3.2-Exp發(fā)布,收到了眾多熱心用戶反饋的對比測試結(jié)果。目前未發(fā)現(xiàn) V3.2-Exp 在任何特定場景中顯著差于 V3.1-Terminus,這驗(yàn)證了 DSA 稀疏注意力機(jī)制的有效性。
今天,DeepSeek同時(shí)發(fā)布兩個(gè)正式版模型:
DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。

官方網(wǎng)頁端、App 和 API 均已更新為正式版 DeepSeek-V3.2。Speciale 版本目前僅以臨時(shí) API 服務(wù)形式開放,以供社區(qū)評測與研究。
DeepSeek-V3.2
DeepSeek-V3.2 的目標(biāo)是平衡推理能力與輸出長度,適合日常使用,例如問答場景和通用 Agent 任務(wù)場景。
在公開的推理類 Benchmark 測試中,DeepSeek-V3.2 達(dá)到了 GPT-5 的水平,僅略低于 Gemini-3.0-Pro;相比 Kimi-K2-Thinking,V3.2 的輸出長度大幅降低,顯著減少了計(jì)算開銷與用戶等待時(shí)間。
DeepSeek-V3.2-Speciale
DeepSeek-V3.2-Speciale 的目標(biāo)是將開源模型的推理能力推向極致,探索模型能力的邊界。
V3.2-Speciale 是 DeepSeek-V3.2 的長思考增強(qiáng)版,同時(shí)結(jié)合了 DeepSeek-Math-V2 的定理證明能力。該模型具備更好的指令跟隨、數(shù)學(xué)證明與邏輯驗(yàn)證能力,在主流推理基準(zhǔn)測試上的性能表現(xiàn)媲美 Gemini-3.0-Pro。
V3.2-Speciale 模型成功斬獲 IMO 2025(國際數(shù)學(xué)奧林匹克)、CMO 2025(中國數(shù)學(xué)奧林匹克)、ICPC World Finals 2025(國際大學(xué)生程序設(shè)計(jì)競賽全球總決賽)及 IOI 2025(國際信息學(xué)奧林匹克)金牌。其中,ICPC 與 IOI 成績分別達(dá)到了人類選手第二名與第十名的水平。
DeepSeek 官方表示,在高度復(fù)雜任務(wù)上,Speciale 模型大幅優(yōu)于標(biāo)準(zhǔn)版本,但消耗的 Tokens 也顯著更多,成本更高。目前,DeepSeek-V3.2-Speciale 僅供研究使用,不支持工具調(diào)用,暫未針對日常對話與寫作任務(wù)進(jìn)行專項(xiàng)優(yōu)化。

不同于過往版本在思考模式下無法調(diào)用工具的局限,DeepSeek-V3.2 是該公司推出的首個(gè)將思考融入工具使用的模型,并且同時(shí)支持思考模式與非思考模式的工具調(diào)用。
官方提出了一種大規(guī)模 Agent 訓(xùn)練數(shù)據(jù)合成方法,構(gòu)造了大量「難解答,易驗(yàn)證」的強(qiáng)化學(xué)習(xí)任務(wù)(1800+ 環(huán)境,85,000+ 復(fù)雜指令),大幅提高了模型的泛化能力。

DeepSeek-V3.2 模型在智能體評測中達(dá)到了當(dāng)前開源模型的最高水平,大幅縮小了開源模型與閉源模型的差距。值得說明的是,V3.2 并沒有針對這些測試集的工具進(jìn)行特殊訓(xùn)練。
DeepSeek-V3.2 的思考模式也增加了對 Claude Code 的支持,用戶可以通過將模型名改為 deepseek-reasoner,或在 Claude Code CLI 中按 Tab 鍵開啟思考模式進(jìn)行使用。
但需要注意的是,思考模式未充分適配 Cline、RooCode 等使用非標(biāo)準(zhǔn)工具調(diào)用的組件,官方建議用戶在使用此類組件時(shí)繼續(xù)使用非思考模式。
