赞
踩
目前为止,下面是常用的各种大模型本地部署工具和平台,按照不同性质可以分为以下几类和描述。
这一类包括提供从模型训练到部署、管理和服务化的一站式解决方案的平台。这些工具通常支持模型的全生命周期管理,适用于需要高度集成和自动化的企业级部署。
主要包括:Ollama,LM Studio,Ray Serve,GPT4ALL,vLLM,HuggingFace TGI,OpenLLM,LMDeploy, FastChat, LangChain。
此类工具专注于提高模型的推理效率,通过硬件加速、算法优化等方式减少推理时间和资源消耗,适用于性能敏感的应用。
主要包括:TensorRT-LIm, FasterTransformer, DeepSpeed-MII, CTranslate2,FlexFlow Server MLC LLM,XInference。
这些工具通常针对特定的业务场景或模型类型进行优化,提供特定领域解决方案。
主要包括:H2OGPT, PrivateGPT, Text Generation Inference,mlc-llm,QMoE。
这类库提供广泛的模型支持和开发工具,使开发者能够轻松地访问、训练和部署各种预训练模型。
主要包括:PyTorch Transformer库,Hugging Face Transformers。
针对特定编程语言优化的工具,通常提供了更好的性能和更深的系统集成能力。目前主要是C或C++语言。
主要包括:llama.cpp,koboldcpp,PowerInfer,chatglm.cpp,qwen.cpp。
其中最方便的人人都可以部署的三种傻瓜方式包括Ollama,GPT4ALL和LM Studio,都支持window,MAC和linux操作系统,搜索官网直接下载安装应用即可。
下面对29种每个工具或平台进行一个概述。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。