赞
踩
pip install langchain
conda install langchain -c conda-forge
- conda install jupyter
- pip install --upgrade jupyter
- jupyter notebook
找到api_serve.py文件打开
点击下载模型,获得git clone的下载方式,回到MobaXterm进行下载
- cd /root
- git clone https://www.modelscope.cn/Xorbits/bge-base-zh.git
下载成功
vim /root/.bashrc
export补充路径
- export MODEL_PATH=/root/chatglm3-6b
- export EMBEDDING_PATH=/root/bge-large-zh
执行一遍
- conda activate ChatGLM3env
- cd /root/ChatGLM3/openai_api_demo/
- ll
- vim api_server.py
心跳
词嵌入
模型chatgml3-6b
推理返回
上面的代码说明基本部署完成,重新python api_server.py文件
成功,监听了一个端口8000
打开jupyter,输入以下代码:
- from langchain.chains import LLMChain
- from langchain.prompts import PromptTemplate
- from langchain.chat_models import ChatOpenAI
- import os
-
- template = """{question}"""
- prompt = PromptTemplate(template=template, input_variables=["question"])
- openai_api_base="http://127.0.0.1:8000/v1"
- llm = ChatOpenAI(model="chatglm3-6b", openai_api_base=openai_api_base, openai_api_key="abcabc")
- llm_chain = LLMChain(prompt=prompt, llm=llm)
-
- question = "帮我写一篇新闻,关于美食。"
-
- print(llm_chain.run(question))
1. `from langchain.chains import LLMChain`
从 LangChain 库中导入 LLMChain 类,用于创建一个链式语言模型。
2. `from langchain.prompts import PromptTemplate`
从 LangChain 库中导入 PromptTemplate 类,用于定义提示模板。
3. `from langchain.chat_models import ChatOpenAI`
从 LangChain 库中导入 ChatOpenAI 类,用于与 OpenAI 的对话模型进行交互。
4. `template = """{question}"""`
定义一个简单的提示模板,其中只包含一个占位符 {question}。
5. `prompt = PromptTemplate(template=template, input_variables=["question"])`
使用上一步定义的模板和输入变量创建一个 PromptTemplate 实例。
6. `openai_api_base="http://127.0.0.1:8000/v1"`
设置 OpenAI API 的基础 URL,在这个例子中是本地主机的 8000 端口。
"http://127.0.0.1:8000/v1"的127.0.0.1要改为自己的公网IP
7. `llm = ChatOpenAI(model="chatglm3-6b", openai_api_base=openai_api_base, openai_api_key="abcabc")`
创建一个 ChatOpenAI 实例,指定使用 chatglm3-6b 模型,并设置 API 基础 URL 和 API 密钥。
8. `llm_chain = LLMChain(prompt=prompt, llm=llm)`
使用之前创建的 PromptTemplate 和 ChatOpenAI 实例创建一个 LLMChain 对象。
9. `question = "帮我写一篇新闻,关于美食。"`
定义一个问题字符串。
10. `print(llm_chain.run(question))`
将问题字符串传递给 LLMChain 的 run 方法,并打印模型的响应。
总的来说,这段代码设置了一个简单的提示模板,并使用 LangChain 库与 OpenAI 的 chatglm3-6b 模型进行交互。它向模型提交一个关于写一篇美食新闻的问题,并打印模型的响应。
pip install openai
下载完成
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。