阿里巴巴的Qwen團隊近日震撼發布了其最新的科研成果——QwQ-32B大型語言模型,這一創新成果迅速引起了業界的廣泛關注。
QwQ-32B模型擁有驚人的320億參數,但其性能卻足以與擁有6710億參數(激活部分為370億)的DeepSeek-R1模型相媲美。這一成就的實現,得益于Qwen團隊在強化學習領域的突破,使得QwQ-32B在參數數量僅為DeepSeek-R1約1/21的情況下,實現了性能的飛躍。
不僅如此,阿里巴巴還在QwQ-32B的推理模型中融入了與Agent相關的能力,這一創新使得該模型能夠在使用工具的同時,進行批判性思考,并根據環境的反饋靈活調整其推理過程。這一特性無疑大大增強了模型的實用性和智能化水平。
為了全面評估QwQ-32B的性能,阿里巴巴團隊在一系列基準測試中對其進行了嚴格的測試,包括數學推理、編程能力以及通用能力等多個方面。結果顯示,在數學能力的AIME24評測集上,以及評估代碼能力的LiveCodeBench中,QwQ-32B的表現與DeepSeek-R1相當,遠遠超過了o1-mini以及相同尺寸的R1蒸餾模型。
在由meta首席科學家楊立昆領銜的“最難LLMs評測榜”LiveBench、谷歌提出的指令遵循能力IFeval評測集,以及加州大學伯克利分校等提出的評估準確調用函數或工具的BFCL測試中,QwQ-32B均取得了超越DeepSeek-R1的優異成績。這些測試結果無疑進一步證明了QwQ-32B的強大性能和廣泛適用性。
QwQ-32B模型已經在Hugging Face和ModelScope平臺上開源,廣大開發者可以通過這些平臺直接獲取并使用該模型。同時,用戶還可以通過Qwen Chat直接體驗QwQ-32B的強大功能,感受其帶來的智能化變革。