導(dǎo)航菜單

全球最強(qiáng)開源模型!阿里通義千問登頂國內(nèi)第一:超越一眾開閉源模型

導(dǎo)讀 7月10日消息,根據(jù)SuperCLUE發(fā)布的中文大模型基準(zhǔn)測(cè)評(píng)最新報(bào)告,阿里通義千問開源模型Qwen2-72B-Instruct以卓越的表現(xiàn)位居國內(nèi)通用能力第一...

7月10日消息,根據(jù)SuperCLUE發(fā)布的中文大模型基準(zhǔn)測(cè)評(píng)最新報(bào)告,阿里通義千問開源模型Qwen2-72B-Instruct以卓越的表現(xiàn)位居國內(nèi)通用能力第一,更在全球范圍內(nèi)成為最強(qiáng)開源模型。

SuperCLUE報(bào)告詳細(xì)披露了對(duì)國內(nèi)外33個(gè)大模型的綜合測(cè)評(píng)結(jié)果,Qwen2-72B在一級(jí)總分上以77分的高分與Claude-3.5-Sonnet并列第二,僅次于OpenAI的GPT-4o。

這一得分超越了百度文心一言4.0、訊飛星火V4.0、Llama-3-70B等開閉源大模型。

具體來看,在理科、文科和Hard三個(gè)維度的具體測(cè)評(píng)中,Qwen2-72B展現(xiàn)了全面而均衡的能力。

特別是在理科任務(wù)上,Qwen2-72B與GPT-4o的分差僅為5分,顯示出其在計(jì)算、邏輯推理和代碼測(cè)評(píng)方面的強(qiáng)勁實(shí)力。

在文科任務(wù)和Hard任務(wù)上,Qwen2-72B同樣表現(xiàn)不俗,得分均達(dá)到了76分,與GPT-4o的得分相差無幾。

特別值得一提的是,在端側(cè)小模型測(cè)評(píng)中,Qwen2-7B以70億參數(shù)的模型規(guī)模,超越了上一代320億參數(shù)的Qwen1.5-32B和130億參數(shù)的Llama-3-8B-Instruct,奪得了排名第一的寶座。

這一成績不僅證明了Qwen2-7B在小尺寸模型中的極致性能,也極大提升了端側(cè)小模型落地的可行性。

數(shù)據(jù)顯示,截至目前Qwen系列模型的下載量已突破2000萬次,其應(yīng)用場景覆蓋了工業(yè)、金融、醫(yī)療、汽車等多個(gè)垂直領(lǐng)域。

免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

猜你喜歡:

最新文章: