导读:微软展示了小型模型领域新产品,告诉这里谁才是老大。
当地时间4月23日,微软推出了开源轻量级AI模型Phi-3系列,宣称这是目前市面上性能最强、最具性价比的“小语言模型”。
该系列的最小版本Phi-3-mini虽然参数规模仅有38亿,但却展现了超越参数规模大一倍多的模型的性能,在多项基准测试中比Meta的Llama 3 8B更优异,而Phi-3-small和Phi-3-medium这两个版本甚至可以超越GPT-3.5 Turbo。
该模型的创建者之一 Harkirat Behl 表示:“Phi-2 比 Meta 的Llama 2 7B和其他模型更好的原因之一是它的 27 亿参数大小非常适合安装在手机上。”
Phi-3-mini对内存的占用极少,可在iPhone 14搭载的A16 Bionic芯片上实现每秒12个token的生成速度,这意味着这款模型不用联网,可以直接在手机上运行。不仅如此,据透露,Phi-3的成本或只有同等性能模型的十分之一。
这样的模型对于网络资源受限或需要离线推理的场景来说,无疑是一大好消息。据微软介绍,印度企业已经开始用Phi-3模型来帮助资源紧缺的农民解决生产生活问题。但Phi-3系列并非没有缺点,其在事实性知识方面的表现并不理想,不过微软已经找到了相应的缓解之道。
手机上能跑的GPT-3.5级别模型
当地时间4月23日,微软推出了开源轻量级AI模型Phi-3-mini,这是其Phi家族的第4代模型。Phi-3-mini是Phi-3系列中最小的,参数只有38亿,未来几周内,微软还将推出该系列的另外两个版本Phi-3-small(70亿参数)和Phi-3-medium(140亿参数)。
“Phi-3模型是现有功能最强大、最具性价比的小语言模型(SLM),在各种语言、推理、编码和数学基准测试中,其性能优于相同大小和规模大一级的模型。”微软方面表示。
具体来看,Phi-3-mini采用了transformer架构,支持4K和128K上下文窗口,也是同类小模型中第一个支持128K的开源产品。
性能上,Phi-3-mini在多项基准测试中超过了参数规模大一倍多的Llama 3 8B(80亿参数),而Phi-3-small和Phi-3-medium超过了很多尺寸大得多的模型,如GPT-3.5 Turbo,而后者的参数规模高达1750亿。
由于Phi-3-mini对内存的占用极少,经过压缩后总体积可以大幅缩减至1.8GB,可在iPhone 14搭载的A16 Bionic芯片上实现每秒12个token的生成速度,意味着这款模型不用联网,可以直接在手机上运行。
Phi-3系列的惊艳表现来自于其训练方式。微软生成式AI研究院(GenAI Resaerch)副总裁Sébastien Bubeck表示,微软在开发Phi-3时力图确保输入的是高质量数据训练集。
微软技术报告显示,开发人员开发Phi-3时使用了3.3T tokens数据集,包括经过严格质量筛选的网络公开文档、精选的高质量教育数据和编程代码。此外,还有AI自己生成的“合成数据”,如数学、编码、常识推理、世界常识、心理科学等。高质量数据,再辅以独特的指令微调和RLHF训练,大幅提高了小语言模型的性能。
当然,Phi-3系列也有其缺点,这主要体现在事实性知识上,在相关的基准测试如TriviaQA上的表现就不如人意。不过,开发语言模型是性能和尺寸的平衡。微软透露,Phi-3模型本身参数中没能力存储太多事实和知识,这一缺点的缓解方式是联网接入搜索引擎增强。
可离线使用,成本只有类似性能模型的十分之一
传统观点认为,大语言模型的关键点就在于“大”,参数越大,训练数据体积越大,性能就更强。微软推出轻量级的小语言模型,用意何在呢?
据微软自己的说法,像Phi-3这样的小语言模型特别适合以下场景:网络资源受限,需要在终端设备上推理或者离线推理的场景;需要避免延迟,快速响应至关重要的场景;成本受限的场景,特别是那些较为简单的任务。
Phi-3能够在手机上离线运行,成本大幅降低,从而大大降低了AI的实际使用门槛。
微软高管Eric Boyd就表示,企业客户经常发现像Phi-3这样的小模型更适合他们的定制应用程序,因为企业的内部数据集本来就规模不大,而且小模型需要的算力更少,成本也更为便宜。
“Phi-3的价格不是稍微便宜一点,而是便宜得多,与具有类似功能的其他型号相比,成本差异可能是10倍的范围,”微软的Sébastien Bubeck对路透社表示。
由于该模型是针对设备上和边缘用例构建的,因此它非常适合持续向人工智能设备转变。此外,苹果还在边缘试验人工智能,Phi-3 可能会让微软比苹果更具优势。
此外,由于此类小型模型的性能优于大型模型,这也可能对 OpenAI 发布 GPT-5 产生影响,因为企业也越来越多地采用开源模型。谁知道呢,该公司可能会决定开源其即将推出的一款型号,尽管目前看来不太可能。
Microsoft 还牢记需要使 LLM 能够与当前信息保持同步,因此 Phi-3 也成为 RAG 用例的理想选择。
微软认为,基于合成数据的训练模型可以减少模型的大小,并且还可以在其中引入许多功能,这与 GPT-3 的训练方式不同。“教科书是由该领域的专家编写的,不像互联网,任何人都可以编写和发布,这就是 GPT-3 的训练方式”,Behl 如此称。
微软已经在探索如何在资源有限的情况下应用Phi-3。据其介绍,总部位于印度的农业集团ITC,正在与微软合作将Phi-3用于农业领域,共同开发面向农民的应用程序Krishi Mitra,这一程序的覆盖范围达100万农民。
据悉,农民可以用当地语言向Krishi Mitra提问,该应用程序会立即以用户的本地语言提供详细的个性化响应,帮助他们解决农作物管理、病虫害控制、土壤健康、水资源保护、天气预报、市场联系和政府计划等相关问题。
AI PC也是微软推动本地端执行AI的计划之一。微软可望在下个月产品及技术大会上公布新款自家AI PC,即Surface平板及笔电,以及其他Windows 11的AI技术。
作者:有趣的大雄
参考:
https://azure.microsoft.com/en-us/blog/introducing-phi-3-redefining-whats-possible-with-slms/
https://huggingface.co/microsoft/Phi-3-mini-128k-instruct
https://analyticsindiamag.com/microsofts-phi-3-outperforms-metas-llama-3-and-fits-perfectly-on-an-iphone/