首页科技 正文
目录

微软 发布 Phi-3,小模型击败Llama 3,可在手机端丝滑运行

科技2024-04-24
智者2024年4月24日消息,数据已成为提升大模型能力的重点。Llama-3 刚发布没多久,竞争对手就来了,而且是可以在手机上运行的小体量模型。本周二,微软发布了自研小尺寸模型 Phi-3。新模型有三个版本,其中 Phi-3 mini 是一个拥有 38 亿参数的语言模型,经过 3.3 万亿 token 的训练,其整体性能在学术基准和内部测试上成绩优异。尽管...

微软phi3_副本.jpg

智者2024年4月24日消息,数据已成为提升大模型能力的重点。Llama-3 刚发布没多久,竞争对手就来了,而且是可以在手机上运行的小体量模型。本周二,微软发布了自研小尺寸模型 Phi-3。

新模型有三个版本,其中 Phi-3 mini 是一个拥有 38 亿参数的语言模型,经过 3.3 万亿 token 的训练,其整体性能在学术基准和内部测试上成绩优异。

尽管 Phi-3 mini 参数仅3.8B,被优化至可部署在手机上,但它的性能可以与 Mixtral 8x7B 和 GPT-3.5 等模型相媲美。微软表示,创新主要在于用于训练的数据集。

与此同时,Phi-3 与 Llama-2 使用相同的架构,方便开源社区在其基础上开发。

此前,微软的 Phi 系列模型曾经引发了人们的热议,去年 6 月,微软发布了《Textbooks Are All You Need》论文,用规模仅为 7B token 的「教科书质量」数据训练 1.3B 参数的模型 phi-1,实现了良好的性能。

去年 9 月,微软进一步探索这条道路,让 1.3B 参数的 Transformer 架构语言模型 Phi-1.5 显示出强大的编码能力。

去年底,微软提出的 Phi-2 具备了一定的常识能力,在 2.7B 的量级上多个基准测试成绩超过 Llama2 7B、Llama2 13B、Mistral 7B 等一众先进模型。

刚刚提出的 phi-3-mini 是一个在 3.3 万亿个 token 上训练的 38 亿参数语言模型。实验测试表明,phi-3-mini 的整体性能可与 Mixtral 8x7B 和 GPT-3.5 等模型相媲美,例如 phi -3-mini 在 MMLU 上达到了 69%,在 MT-bench 上达到了 8.38。

微软之前对 phi 系列模型的研究表明,高质量的"小数据"能够让较小的模型具备良好的性能。phi-3-mini 在经过严格过滤的网络数据和合成数据(类似于 phi-2)上进行训练,并进一步调整了稳健性、安全性和聊天格式。

此外,研究团队还提供了针对 4.8T token 训练的 7B 和 14B 模型的初始参数扩展结果,称为 phi-3-small 和 phi-3-medium,两者都比 phi-3-mini 能力更强。

Phi-3系列模型在多任务语言理解测试中得分高,但知识广度有限,目前只支持英文。训练方法受儿童学习方式启发,适用于定制应用,尤其适合数据集较小的企业。


您暂未设置收款码

请在主题配置——文章设置里上传

扫描二维码手机访问

文章目录