阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o

11 月 12 日消息,阿里通义千问今日开源 Qwen2.5-Coder 全系列模型,其中 Qwen2.5-Coder-32B-Instruct 成为目前 SOTA 的开源代码模型,官方号称代码能力追平 GPT-4o。

Qwen2.5-Coder-32B-Instruct 作为本次开源的旗舰模型,在多个流行的代码生成基准(如 EvalPlus、LiveCodeBench、BigCodeBench)上都取得了开源模型中的最佳表现,官方称达到和 GPT-4o 有竞争力的表现。

阿里通义千问此前开源了 1.5B、7B 两个尺寸,本次开源带来 0.5B、3B、14B、32B 四个尺寸,覆盖了主流的六个模型尺寸。

Qwen2.5-Coder 0.5B / 1.5B / 7B / 14B / 32B 模型均采用 Apache 2.0 许可证,3B 模型使用 Research Only 许可。

附相关链接如下:

  • Githubhttps://github.com/QwenLM/Qwen2.5-Coder

  • Huggingfacehttps://huggingface.co/collections/Qwen/qwen25-coder-66eaa22e6f99801bf65b0c2f

  • Modelscopehttps://modelscope.cn/organization/qwen

  • 演示https://huggingface.co/spaces/Qwen/Qwen2.5-Coder-demo

Published by

风君子

独自遨游何稽首 揭天掀地慰生平