阿里云近日宣布推出了针对Llama 2全系列版本的训练和部署方案。为了方便开发者,阿里云机器学习平台PAI在国内率先对Llama 2系列模型进行深度适配,推出了轻量级微调、全参数微调、推理服务等场景的最佳实践方案,助力开发者快速基于Llama 2进行再训练,搭建自己的专属大模型。
此外,阿里云还牵头发起了AI模型社区魔搭Modelscope,在该社区上提供了Llama2系列模型,开发者可以在该社区上进行模型开发。
开发者可以在魔搭社区的Llama2模型页面点击“Notebook快速开发”,从而一键拉起阿里云机器学习平台PAI,对模型进行云上开发和部署。此外,在其他平台下载的Llama2模型,也可以使用阿里云PAI进行开发。
在阿里云上,开发者可以通过轻量级Lora微调或全参数微调来完成Llama2模型的微调。完成微调后,PAI支持开发者通过Web UI及API的方式部署Llama2,使模型可以通过网页或嵌入应用与使用者交互。
与本地单机训练Llama2相比,在阿里云上完成对超大尺寸模型的深度开发更加简单便捷,而且预置环境免运维,操作简单,同时开发者可以获得丰富的AI计算资源和极致弹性。相比之下,本地单卡GPU只能完成Llama270亿参数版本的轻量级Lora微调和推理,更大尺寸版本及更深度训练均很难支撑。
据公开资料显示,Llama 2在数据层面,相比上一代不仅使用了更多的训练数据,而且context length翻倍,达到4096。值得一提的是,Llama 2在公开测试基准上的结果显示,其在代码、常识推理、世界知识、阅读理解、数学等评测维度的能力均获得大幅提升。7B版本在很多测试集上接近甚至有超越30B的MPT模型的表现。
(本文由美国主机侦探原创,转载请注明出处“美国主机侦探”和原文地址!)

微信扫码加好友进群
主机优惠码及时掌握

QQ群号:938255063
主机优惠发布与交流