当前位置:   article > 正文

魔搭社区LLM模型部署实践, 以ChatGLM3为例(一)_魔搭选择cpu还是gpu

魔搭选择cpu还是gpu

魔搭社区LLM模型部署实践, 以ChatGLM3为 例

本文以ChatGLM3-6B为例, 主要介绍在魔搭社区如何部署LLM, 主要包括如下内容:

● SwingDeploy - 云端部署, 实现零代码一键部署

● 多端部署 - MAC个人笔记本, CPU服务器

● 定制化模型部署 - 微调后部署

一 、 SwingDeploy - 云端部署, 零代码一键部署

魔搭社区SwingDeploy链接:https://modelscope.cn/my/modelService/deploy

魔搭社区SwingDeploy支持将模型从魔搭社区的模型库一键部署至用户阿里云账号的云资源上, 并根 据模型资源要求为您自动推荐最佳部署配置 。一键即可零代码创建模型部署任务, 并通过API方式调

用心仪的模型, 进行实时推理! 当前魔搭社区已经支持SwingDeploy已接入阿里云 FunctionCompute(FC) 、PAI-EAS两类可用于模型部署推理的云资源。

不用付费,勾选开通后跳转页面

image-20231111170726188

函数计算开通成功

image-20231111170809442

使用SwingDeploy服务可以讲模型部署在云端功能强大的GPU上, 云端负责服务, 扩展, 保护和监控 模型服务, 可以免于运维和管理云上算力等基础设施 。当选择模型并部署时, 系统会选择对应的机器 配置 。按需使用可以在根据工作负载动态的减少资源, 节约机器使用成本 。同时从部署页面进入云资 源管理页面, 。。。。。。。

选择SwingDeploy部署模型, 选择模型, 如智谱AI提供的ChatGLM3, 系统会自动匹配该模型最新的 版本, 以及推荐的部署资源规格。

img

点击一键部署, 系统将从社区拉取模型, 并打包成镜像部署到指定配置的实例, 根据模型大小和实例 类型, 部署通常几分钟内能完成。

另外除了在ModelScope上能设置基础的部署配置以外, 部署完成以后, 也点击计算资源名称( 以 EAS为例), 进入云资源管理页面, 进行更多的操作, 比如支持扩缩容策略, 配置高速链接等。

img

服务状态显示“部署成功”后, 点击立即使用, 可以复制Python代码直接进行服务的调用。

img

粘贴立即使用代码, 进入魔搭免费算力PAI-DSW, 选择CPU类型, 粘贴示例代码, 测试部署模型的推 理效果。

img

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/175575
推荐阅读
相关标签
  

闽ICP备14008679号