微软现支持开发者微调 Phi-3-mini 和 Phi-3-medium AI 模型

7 月 26 日消息,微软公司昨日(7 月 25 日)发布博文,宣布在 Azure 上支持开发者微调(fine-tune) Phi-3-mini 和 Phi-3-medium AI 模型,针对不同用例提高模型的性能。

例如,开发者可以微调 Phi-3-medium 模型,用于辅导学生;或者可以根据特定的语气或响应风格构建聊天应用程序。

Phi-3-mini 模型于今年 4 月发布,共有 38 亿参数,上下文长度有 4K 和 128K 两个版本;Phi-3-medium 模型共有 140 亿参数,上下文长度同样有 4K 和 128K 两个版本。

Phi-3-mini 模型在 6 月更新之后,跑分性能进一步提升,附上性能对比如下:

跑分  Phi-3-mini-4k  Phi-3-mini-128k 
4 月版本 6 月更新  4 月版本 6 月更新 
Instruction Extra Hard  5.7  6.0  5.7  5.9 
Instruction Hard  4.9  5.1  5.2 
JSON Structure Output  11.5  52.3  1.9  60.1 
XML Structure Output  14.4  49.8  47.8  52.9 
GPQA  23.7  30.6  25.9  29.7 
MMLU  68.8  70.9  68.1  69.7 
平均 21.7  35.8  25.7  37.6

微软公司今天还宣布正式上线 Models-as-a-Service(serverless endpoint)服务,开发者无需担心底层基础设施,可以通过 serverless endpoint 方式构建 Phi-3-small 模型,快速开发人工智能应用程序,后续将扩充推出 Phi-3-vision 模型。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平