当前位置:   article > 正文

无需GPU,一键搭建本地大语言模型(LLM)服务,提供 OpenAI 接口 | 附 C#/Python 代码_大模型本地搭建

大模型本地搭建

目录

使用方法

1. 安装依赖

2. 下载模型

3. 配置

4. 启动服务

使用示例

1. python

2. C#

总结


 

无论是由于网络访问限制,还是数据安全原因,我们可能需要私有化部署大语言模型(LLM),以便在本地运行访问。

本项目(https://github.com/feiyun0112/Local-LLM-Server)提供了一个快速搭建私有大语言模型服务器的方法,只需要一行命令,就可以在本地搭建一个私有的大语言模型服务器,并提供OpenAI兼容接口。

注意:本项目在CPU 环境下也可以使用,但是速度会较慢。

使用方法

1. 安装依赖

  • 首先,确保你的机器安装了 Python(我使用的是3.10)

  • 然后,安装依赖

pip install -r requirements.txt

2. 下载模型

本项目基于FastChat实现,FastChat支持多种大语言模型(https://github.com/lm-sys/FastChat/blob/main/docs/model_support.md)。

我个人只测试了 LLM 模型 https://huggingface.co/THUDM/chatglm3-6b 与 Embedding 模型 https://huggingface.co/BAAI/bge-large-zh,其他模型理论上也可以使用。

  1. git lfs install
  2. git clone https://huggingface.co/THUDM/chatglm3-6b
  3. git clone https://huggingface.co/BAAI/bge-large-zh

3. 配置

本项目可以同时部署多个模型,只需要在 config.py 中配置模型名称和路径键值对即可。

  1. WORK_CONFIG = {
  2.     "host"HOST,    
  3.     "port"21002,
  4.     # 模型名称和路径键值对
  5.     "models": {
  6.         "ChatModel":"d:/chatglm3-6b", # 名称可以自定义,路径可以用相对路径或绝对路径
  7.         "EmbeddingsModel":"c:/models/bge-large-zh"
  8.     },    
  9. }

4. 启动服务

python startup.py

当看到如下输出时,说明服务已经启动成功:

Local-LLM-Server 启动成功,请使用 http://127.0.0.1:21000 访问 OpenAI 接口

使用示例

示例代码都存放在本项目 demos 目录下。

1. python

  1. import openai
  2. openai.api_key = "Empty"
  3. openai.base_url = "http://localhost:21000/v1/"
  4. # 使用 LLM 模型
  5. completion = openai.chat.completions.create(
  6.     model="ChatModel",
  7.     messages=[{"role""user""content""请自我介绍一下?"}]
  8. )
  9. print(completion.choices[0].message.content)
  10. # 使用 Embeddings 模型
  11. embedding = openai.embeddings.create(
  12.     model="EmbeddingsModel",
  13.     input = "欢迎关注我的个人公众号MyIO!"
  14.     encoding_format="float")
  15. print(embedding.data[0].embedding)

图片

2. C#

需引用 Nuget Semantic-Kernel 1.0.1

  1. using Microsoft.SemanticKernel;
  2. var kernel = Kernel.CreateBuilder()
  3.         .AddOpenAIChatCompletion(
  4.              modelId"ChatModel",
  5.              apiKey"NoKey",
  6.              httpClientnew HttpClient(new MyHandler())
  7.         ).Build();
  8. var prompt = "请自我介绍一下?";
  9. var result = await kernel.InvokePromptAsync(prompt);
  10. var answer = result.GetValue<string>();
  11. Console.WriteLine(answer);

由于 Microsoft.SemanticKernel 没提供直接设置 OpenAI 服务器地址的方法,所以自定义一个 DelegatingHandler,将 OpenAI 服务器地址修改为 Local-LLM-Server 地址。

  1. class MyHandler : DelegatingHandler
  2. {
  3.     public MyHandler()
  4.         : base(new HttpClientHandler())
  5.     {
  6.     }
  7.     protected override Task<HttpResponseMessage> SendAsync(HttpRequestMessage request, CancellationToken cancellationToken)
  8.     {
  9.         var newUriBuilder = new UriBuilder(request.RequestUri);
  10.         newUriBuilder.Scheme = "http";
  11.         newUriBuilder.Host = "127.0.0.1";
  12.         newUriBuilder.Port = 21000;
  13.         request.RequestUri = newUriBuilder.Uri;
  14.         return base.SendAsync(request, cancellationToken);
  15.     }
  16. }

总结

如果你觉得这个项目对你有帮助,请帮忙点个小星星⭐️ 

https://github.com/feiyun0112/Local-LLM-Server

引入地址 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/73771
推荐阅读
相关标签
  

闽ICP备14008679号