阿里發布Qwen3-Max大模型,性能超GPT-5快訊
Qwen3-Max推理模型之所以能夠取得優異成績,Qwen3-Max-Instrurct測評分數 Qwen3-Max的推理增強版本Qwen3-Max-Thinking-Heavy也展現出非凡性能,Qwen3-Max包括指令(Instruct)和推理(Thinking)兩大版本。
【TechWeb】9月24日消息, 2025云棲大會開幕,阿里通義旗艦模型Qwen3-Max重磅亮相,性能超過GPT5、Claude Opus 4等,躋身全球前三。Qwen3-Max包括指令(Instruct)和推理(Thinking)兩大版本,其預覽版已在 Chatbot Arena 排行榜上位列第三,正式版性可望再度實現突破。
Qwen3-Max為通義千問家族中最大、最強的基礎模型。該模型預訓練數據量達36T tokens,總參數超過萬億,擁有極強的Coding編程能力和Agent工具調用能力。在大模型用Coding解決真實世界問題的SWE-Bench Verified測試中,Instruct版本斬獲69.6分,位列全球第一梯隊;在聚焦Agent工具調用能力的Tau2-Bench測試中,Qwen3-Max取得突破性的74.8分,超過Claude Opus4和DeepSeek-V3.1。
Qwen3-Max-Instrurct測評分數
Qwen3-Max的推理增強版本Qwen3-Max-Thinking-Heavy也展現出非凡性能,結合工具調用和并行推理技術,其推理能力創下新高,尤其在聚焦數學推理的AIME 25和HMMT測試中,均達到突破性的滿分100分,為國內首次。Qwen3-Max推理模型之所以能夠取得優異成績,原因在于大模型在解數學題時懂得調動工具,能夠寫代碼做題,同時,增加測試時的計算資源,也讓模型表現變得更好。
Qwen3-Max-Thinking-Heavy 測評分數
大模型預訓練原理Scaling Law(規?;▌t)認為,持續地增長數據和參數規模,是通向 AGI 的可能路徑之一。由于自然數據的數量有限,當前有部分學者認為預訓練的Scaling Law即將逼近上限,而Qwen3-Max的性能突破顯示,繼續增大數據、模型參數,依然能鍛造出更強的模型,給予了大家更多的信心。目前,通義千問系列模型已經實現從0.5B到超萬億的全尺寸覆蓋,包含三百多個大模型,可滿足不同場景的需求。
即日起,用戶可在通義千問QwenChat上免費體驗Qwen3-Max,也可通過阿里云百煉平臺調用API服務。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。
