11月15日消息,阿里云兩天前開源的通義代碼模型Qwen2.5-Coder,在Big Code Models、SAFIM、EvalPlus、BigCodeBench、Aider、TabbyML等六大權(quán)威榜單上取得了開源最佳成績(jī),最強(qiáng)開源代碼大模型再次得到印證。據(jù)了解,Qwen2.5-Coder受全球開發(fā)者熱捧,開源僅僅2天,模型下載量即突破25萬(wàn),登上Hugging Face趨勢(shì)榜榜首及Github趨勢(shì)榜單。
Qwen2.5-Coder共開源6個(gè)主流模型尺寸,包含0.5B、1.5B、3B、7B、14B、32B等版本,每個(gè)尺寸都開源了Base和Instruct模型,所有版本模型都取得了同尺寸下的業(yè)界最佳性能效果。
在全面考察模型的代碼生成能力的EvalPlus榜單上,Qwen2.5-Coder-32B-Instruct模型拿下開源第一名;在評(píng)估復(fù)雜編程任務(wù)能力的BigCodeBench排行榜上,32B-Instruct模型刷新開源模型最佳成績(jī);在考察代碼修復(fù)能力的Aider大模型榜單中,32B-Instruct模型攬獲開源冠軍。
Qwen2.5-Coder-32B-Instruct拿下EvalPlus榜單上開源第一名
在全球主流AI大模型開源社區(qū)Hugging Face的Big Code Models Leaderboard榜上,通義開源代碼模型在前五名里占據(jù)三席,32B-Instruct模型排名第一,32B-Base模型排名第二;32B-Base模型還拿下語(yǔ)法感知填空(SAFIM)排行榜總榜冠軍,其代碼修復(fù)及補(bǔ)全能力被認(rèn)為是開源閉源所有模型的最佳。此外,在考察20B規(guī)模以下模型的TabbyML榜單中,Qwen2.5-Coder-14B取得了所有模型的第一。
Hugging Face的Big Code Models Leaderboard總榜冠軍,Top5里通義占據(jù)3席
甫一發(fā)布,Qwen2.5-Coder就引爆了全球開源社區(qū),32B-Instrcut模型直接登頂Hugging Face社區(qū)趨勢(shì)榜單冠軍,并登上Github趨勢(shì)榜單,GitHub Star數(shù)直線飆升接近2000。據(jù)不完全統(tǒng)計(jì),開源僅兩日,Qwen2.5-Coder系列模型在魔搭社區(qū)ModelScope、Hugging Face、Ollama等平臺(tái)下載量突破25萬(wàn)次,創(chuàng)造了專業(yè)模型開源的全球新紀(jì)錄。
Qwen2.5-Coder-32B-Instrcut模型登頂Hugging Face社區(qū)趨勢(shì)榜單
開源社區(qū)開發(fā)者們對(duì)Qwen2.5-Coder全系列開源贊不絕口,他們?cè)诟鞔笃脚_(tái)上踴躍分享一手體驗(yàn)和感受,稱贊32B-Instruct“神級(jí)表現(xiàn)”,“效果比GPT-4o、Claude Sonnet甚至o1都好!”,夸獎(jiǎng)Qwen2.5-Coder是“帶開發(fā)的神兵利器”、“改變了AI編程的游戲規(guī)則”。
開發(fā)者評(píng)論截圖