赞
踩
直接通过网页API调用大模型确实方便快捷,尤其对于那些追求效率、希望快速集成AI功能的项目来说,云端服务是个不错的选择。但为啥有些企业和个人还琢磨着要把这些大模型搬到自家服务器上,搞个本地部署呢?
想象一下,如果你的公司处理的是客户敏感信息或者商业机密,直接把数据上传到云端处理,总有点担心信息外泄吧。本地部署就能让数据在内部流转,相当于给敏感信息加了个保险箱。
从国家层面来说,为什么国外ChatGPT这么厉害了,国家还要花大力气搞国产大模型?
因为大模型技术的飞速发展,会让其成为了重要敏感数据的诱捕器,ChatGPT将用户输入纳入训练数据库,用于改善ChatGPT,就能够利用大模型获得公开渠道覆盖不到的中文语料,掌握我们自己都可能不掌握的“中国知识”。所以必须搞国产大模型,不能通过API调用。
从行业层面说,比如用电行业,你想通过大模型生成一个用电分析报告,直接将生产数据通过API调用的方式访问大模型,一旦中间某个环节被监听或者泄露,那就是非常大的事故。
每个企业都有自己的一套流程和偏好,云端模型虽然通用,但可能不够贴身。本地部署就灵活多了,你可以按照自家的需求调整模型,训练它更好地理解行业术语,甚至优化算法来提升特定任务的效率,这样一来,模型就像是为你量身定做的。此外,再结合上一些前端和后端权限控制功能,就像自己做了一套完整的大模型应用。
这一点在toB场景非常常见。一般国企或者政府单位基于大模型做应用,一定是本地私有化部署的,原因有很多,咱就不细说了。
网络延迟、服务提供商的稳定性都是云端服务绕不开的问题。特别是一遇到高峰期,排队等待响应那就G了。本地部署就能确保服务的稳定性和低延迟,这对于要求即时反馈的场景非常重要。比如智能客服场景,你的QPS上去了,仍采用远程API调用,那服务会不会挂心里一点底都没有。比如你所在的环境可能网络不稳定或者压根儿没网,那也必须要本地部署。
现在本地部署大模型也不是难事。推荐使用开源工具ollama
像启动镜像一样本地下载运行大型语言模型
Ollama 支持的模型列表见:https://ollama.com/library
ollama pull llama3
如果你装好了ollama,启动模型服务只需执行如下命令:
Model | Parameters | Size | Download |
---|---|---|---|
Llama 3 | 8B | 4.7GB | ollama run llama3 |
Llama 3 | 70B | 40GB | ollama run llama3:70b |
Phi-3 | 3.8B | 2.3GB | ollama run phi3 |
Mistral | 7B | 4.1GB | ollama run mistral |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
LLaVA | 7B | 4.5GB | ollama run llava |
Gemma | 2B | 1.4GB | ollama run gemma:2b |
Gemma | 7B | 4.8GB | ollama run gemma:7b |
Solar | 10.7B | 6.1GB | ollama run solar |
读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用
对于0基础小白入门:
如果你是零基础小白,想快速入门大模型是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。
大模型AGI学习包
资料目录
《人工智能\大模型入门学习大礼包》,可以扫描下方二维码免费领取!
1.成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
对于从来没有接触过网络安全的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。
2.视频教程
很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,其中一共有21个章节,每个章节都是当前板块的精华浓缩。
3.LLM
大家最喜欢也是最关心的LLM(大语言模型)
《人工智能\大模型入门学习大礼包》,可以扫描下方二维码免费领取!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。