DeepSeek-V3.1發(fā)布開源,更強(qiáng)Agent 能力,API調(diào)用價(jià)格將調(diào)整快訊
同時(shí)支持思考模式與非思考模式,DeepSeek-V3.1 相比之前的 DeepSeek 系列模型有明顯提高,DeepSeek-V3.1 思考模式能在更短時(shí)間內(nèi)給出答案。
【TechWeb】8月21日消息,DeepSeek正式發(fā)布并開源 DeepSeek-V3.1。
本次升級(jí)包含以下主要變化:
混合推理架構(gòu),同時(shí)支持思考模式與非思考模式;
支持更長(zhǎng)的文本生成與處理,當(dāng)前上下文長(zhǎng)度已拓展至 128k;
更高的思考效率,相比 DeepSeek-R1-0528,DeepSeek-V3.1 思考模式能在更短時(shí)間內(nèi)給出答案;
更強(qiáng)的 agent 能力,通過 Post-Training 優(yōu)化,新模型在工具使用與智能體任務(wù)中的表現(xiàn)有較大提升。
官方網(wǎng)頁(yè)、APP、小程序、API 開放平臺(tái)所調(diào)用模型均已同步更新。
用戶可以通過點(diǎn)擊對(duì)話框中的“深度思考”按鈕,實(shí)現(xiàn)思考模式與非思考模式的自由切換。
API 接口調(diào)用方式保持不變,并增加了對(duì) Anthropic API 格式的支持,開發(fā)者們可以輕松接入Claude Code 框架。
據(jù)介紹,在代碼修復(fù)測(cè)評(píng) SWE 與命令行終端環(huán)境下的復(fù)雜任務(wù)(Terminal-Bench)測(cè)試中,DeepSeek-V3.1 相比之前的 DeepSeek 系列模型有明顯提高。
DeepSeek-V3.1 在多項(xiàng)搜索評(píng)測(cè)指標(biāo)上取得了較大提升。在需要多步推理的復(fù)雜搜索測(cè)試(browsecomp)與多學(xué)科專家級(jí)難題測(cè)試(HLE)上,DeepSeek-V3.1 性能已大幅領(lǐng)先 R1-0528。
測(cè)試結(jié)果顯示,經(jīng)過思維鏈壓縮訓(xùn)練后,V3.1-Think 在輸出 token 數(shù)減少 20%-50% 的情況下,各項(xiàng)任務(wù)的平均表現(xiàn)與 R1-0528 持平。
V3.1 在非思考模式下的輸出長(zhǎng)度也得到了有效控制,相比于 DeepSeek-V3-0324 ,能夠在輸出長(zhǎng)度明顯減少的情況下保持相同的模型性能。
V3.1的Base模型在V3的基礎(chǔ)上重新做了外擴(kuò)訓(xùn)練,一共增加訓(xùn)練了 840B tokens。目前Base 模型與后訓(xùn)練模型均已在 Huggingface 與魔搭開源。
另外,北京時(shí)間 2025 年 9 月 6 日凌晨起,對(duì) DeepSeek 開放平臺(tái)API接口調(diào)用價(jià)格進(jìn)行調(diào)整:
1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會(huì)明確標(biāo)注作者和來源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請(qǐng)轉(zhuǎn)載時(shí)務(wù)必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控?zé)任;
3.作者投稿可能會(huì)經(jīng)TMT觀察網(wǎng)編輯修改或補(bǔ)充。
