在DeepSeek成為全球開源大模型的焦點之后,國產(chǎn)開源大模型的開發(fā)熱潮不斷升溫。如今,DeepSeek的最強對手終于亮相了!
阿里巴巴在今日凌晨3點30分發(fā)布了一款重磅炸彈——通義千問最新開源模型QwQ-32B。這款模型在尺寸上比DeepSeek更小,但在性能上卻與全球最強的開源推理模型不相上下。據(jù)了解,通過大規(guī)模強化學(xué)習,千問QwQ-32B在數(shù)學(xué)、代碼及通用能力上實現(xiàn)了質(zhì)的飛躍,整體性能與DeepSeek-R1相當。而且,千問QwQ-32B在保持強勁性能的同時,還大幅降低了部署使用成本,能夠在消費級顯卡上實現(xiàn)本地部署。
目前,阿里已采用寬松的Apache2.0協(xié)議,將千問QwQ-32B模型向全球開源,所有人都可以免費下載及商用。同時,用戶也可以通過通義APP免費體驗最新的千問QwQ-32B模型。目前,QwQ-32B-Preview已經(jīng)在(chat.qwen.ai)官網(wǎng)上線。
據(jù)通義千問Qwen團隊介紹,近期的研究表明,強化學(xué)習可以顯著提高模型的推理能力。例如,DeepSeek-R1通過整合冷啟動數(shù)據(jù)和多階段訓(xùn)練,實現(xiàn)了最先進的性能,使其能夠進行深度思考和復(fù)雜推理。而QwQ-32B就是大規(guī)模強化學(xué)習(RL)對大語言模型的智能的提升作用的最好研究例證。規(guī)模上,QwQ-32B是一款僅有320億參數(shù)的模型,其性能卻可與具備6710 億參數(shù)(其中370億被激活)的DeepSeek-R1媲美。
另外,Qwen團隊還在推理模型中集成了與Agent相關(guān)的能力,使其能夠在使用工具的同時進行批判性思考,并根據(jù)環(huán)境反饋調(diào)整推理過程。測試結(jié)果顯示,在測試數(shù)學(xué)能力的AIME24評測集上,以及評估代碼能力的 LiveCodeBench中,千問QwQ-32B表現(xiàn)與DeepSeek-R1相當,遠勝于o1-mini及相同尺寸的R1 蒸餾模型。
在由Meta首席科學(xué)家楊立昆領(lǐng)銜的“最難LLMs評測榜” LiveBench、谷歌等提出的指令遵循能力IFEval評測集、由加州大學(xué)伯克利分校等提出的評估準確調(diào)用函數(shù)或工具方面的BFCL測試中,千問QwQ-32B的得分均超越了DeepSeek-R1。
此外,Qwen團隊還通過展示了一段簡短的示例代碼,說明如何通過API使用 QwQ-32B。Qwen團隊表示,我們希望我們的一點努力能夠證明強大的基礎(chǔ)模型疊加大規(guī)模強化學(xué)習也許是一條通往通用人工智能的可行之路。
受此消息影響,阿里巴巴港股大漲6.7%,截稿前報138.6港元,總市值2.63萬億港元。
瀏覽量:02025-03-07
瀏覽量:02025-03-06
瀏覽量:02025-03-06
瀏覽量:02025-03-01
瀏覽量:02025-02-20
瀏覽量:02025-02-20