当前位置:   article > 正文

搭建个人专属的API中转站,解决本地OpenAI接口调用困扰_openai_api_base

openai_api_base

今天仅仅只是站在开发者学习交流的角度来介绍一下,我们在日常开发基于LLM的AI应用时遇到的各种瓶颈,毕竟开发出一个优质的应用,舒适的环境和体验还是比较重要的。话不多说,进入正题。

一、搭建OpenAI中转站

如何搭建个人专属的API中转站,这里就不过多赘述了,各位可以移步下面的地址进行查阅:

https://github.com/x-dr/chatgptProxyAPI/blob/main/docs/cloudflare_proxy_pages.md

部署完成后就可以通过你自己的域名来代替 OpenAI 的 API 地址了。比如在本文的例子中,想要请求 ChatGPT 的 API ,即是把官方 API 地址 https://api.openai.com/v1/chat/completions 换为我自己的域名 https://openai-proxy-api.pages.dev/api/v1/chat/completions ,其他参数均参照官方示例即可。

由于 Cloudflare 有每天免费 10 万次的请求额度,所以轻度使用基本是零成本的。

二、本地开发环境配置

2.1、基于 LangChain 开发

2.1.1、安装必要的依赖
  1. !pip install openai langchain
  2. !pip install python-dotenv
2.1.2、新建 .env 文件
  1. OPENAI_API_BASE=your-openai-proxy-url
  2. OPENAI_API_KEY=your-openai-api-key
2.1.3、方式一:通过在 .env 文件中设置 OPENAI_API_BASE 环境变量

LangChain 的源码 openai.py 文件中,可以找到 ChatOpenAI 模型实例里定义了 validateenvironment 函数用于从字典或者环境变量中加载 OPENAIAPI_BASE 的值。

 

我们只需要在 .env 配置 OPENAIAPIBASE 即可正常调用OpenAI API接口。

  1. import os
  2. from dotenv import load_dotenv
  3. from langchain.schema import HumanMessage
  4. from langchain.chat_models import ChatOpenAI
  5. # 加载.env文件中的环境变量
  6. load_dotenv()
  7. # 创建OpenAI实例
  8. llm = ChatOpenAI(
  9. model_name="gpt-3.5-turbo-0613",
  10. max_tokens=1024,
  11. verbose=True
  12. )
  13. result = llm([HumanMessage(content="根据目前的就业形势,选什么专业比较稳妥?")])
  14. print(result.content)
  15. # 输出模型的参数信息可以看到已成功加载环境变量中OPENAI_API_BASE的值
  16. print(llm.json)

输出结果:

  1. LLM是法学硕士(Master of Laws)的缩写。它是一个专业学位,主要面向已经获得法学学士学位或者相关学科学士学位的学生。LLM的学位课程通常涵盖法学的各个领域,如国际法、商法、民法、刑法等。这个学位旨在深入研究法学领域的专业知识和技能,提供更高水平的法律教育和培训。LLM学位在提升法律职业发展、进入法律界的国际化环境、深化法学研究等方面具有重要作用。
  2. <bound method BaseModel.json of ChatOpenAI(cache=None, verbose=True, callbacks=None, callback_manager=None, tags=None, client=<class 'openai.api_resources.chat_completion.ChatCompletion'>, model_name='gpt-3.5-turbo-0613', temperature=0.7, model_kwargs={}, openai_api_key='xxxxxxxxxx', openai_api_base='https://your-proxy-domain/api/v1', openai_organization='', openai_proxy='', request_timeout=None, max_retries=6, streaming=False, n=1, max_tokens=1024)>

2.1.4、方式二:在初始化 ChatOpenAI 模型时指定 openai_api_base 参数

从 LangChain 的源码 openai.py 文件中,可以找到 ChatOpenAI 模型实例中又个 openaiapibase 参数可以设置URL前缀。

我们只需要在实例化 ChatOpenAI 的时候传入 openaiapibase 参数即可正常调用OpenAI API接口。

  1. import os
  2. from dotenv import load_dotenv
  3. from langchain.schema import HumanMessage
  4. from langchain.chat_models import ChatOpenAI
  5. # 加载.env文件中的环境变量
  6. load_dotenv()
  7. # 创建OpenAI实例
  8. llm = ChatOpenAI(
  9. model_name="gpt-3.5-turbo-0613",
  10. max_tokens=1024,
  11. verbose=True,
  12. openai_api_base=os.getenv("OPENAI_API_BASE")
  13. )
  14. result = llm([HumanMessage(content="什么是LLM?")])
  15. print(result.content)

相比较第一种方式来说,配置环境变量属于全局生效,项目中所有OpenAI请求都会统一走代理转发,第二种就是局部针对部分有需要的请求走代理了,按需选择即可。

2.2、基于OpenAI原生API开发

2.2.1、基于Python SDK开发

OpenAI Python SDK 源码包中,init.py 文件中明确定义了从环境变量中加载 OPENAPIBASE 属性,所以在调用官方SDK时,跟2.1.3节一样,只需要在 .env 文件中配置 OPENAPIBASE 即可。

下面的代码演示了直接通过OpenAI原生Python SDK调用GPT模型。 

  1. import os
  2. import openai
  3. from dotenv import load_dotenv
  4. # 加载.env文件中的环境变量
  5. load_dotenv()
  6. openai.api_key = os.getenv("OPENAI_API_KEY")
  7. openai.api_base = os.getenv("OPENAI_API_BASE")
  8. completion = openai.ChatCompletion.create(model="gpt-3.5-turbo-0613", messages=[{"role": "user", "content": "请介绍下Google的PaLM模型!"}])
  9. print(completion.choices[0].message.content)

2.2.2、基于HTTP请求转发

在部署完 API 网关后,可以直接在 Shell 中通过直接通过 curl 调用 OpenAI 接口。替换其中代理地址和 OPENAIAPIKEY

  1. curl --location 'https://openai-proxy-api.pages.dev/api/v1/chat/completions' \
  2. --header 'Authorization: Bearer sk-xxxxxxxxxxxxxxx' \
  3. --header 'Content-Type: application/json' \
  4. --data '{
  5. "model": "gpt-3.5-turbo",
  6. "messages": [{"role": "user", "content": "介绍下Cohere!"}]
  7. }'

输出结果:

也可以不走Python SDK直接调用API请求,只需要替换API_BASE即可,以下代码为Python发送Http请求调用GPT的示例。

  1. import requests
  2. url = "https://openai.1rmb.tk/v1/chat/completions"
  3. api_key = 'sk-xxxxxxxxxxxxxxxxxxxx'
  4. headers = {
  5. 'Authorization': f'Bearer {api_key}',
  6. 'Content-Type': 'application/json'
  7. }
  8. payload = {
  9. "model": "gpt-3.5-turbo",
  10. "messages": [
  11. {
  12. "role": "user",
  13. "content": "对于向量数据库,Chroma和Pinecone的区别是什么?"
  14. }
  15. ]
  16. }
  17. try:
  18. response = requests.post(url, headers=headers, json=payload)
  19. response.raise_for_status() # 抛出异常,如果响应码不是200
  20. data = response.json()
  21. print(data)
  22. except requests.exceptions.RequestException as e:
  23. print(f"请求错误: {e}")

输出结果:

Jupyter Notebook 的完整代码

https://github.com/Crossme0809/langchain-tutorials/blob/main/LangChainWithOpenAIProxyInvoke.ipynb

三、总结

今天介绍了如何在本地环境中使用 LangChain 调用 OpenAI 接口。首先,我们需要搭建个人专属的 OpenAI 中转站。接下来,我们就基于 LangChain 开发和基于 OpenAI 原生 API 开发两种模式的环境及代码进行了介绍。

四、资源推荐

  • OpenAI中文文档:https://openai.xiniushu.com/

  • OpenAI中文文档:https://www.openaidoc.com.cn/

  • LangChain中文文档教程:https://www.langchain.asia/

  • OpenAI在线接口调试平台:https://openai.apifox.cn/

  • Pinecone向量库中文文档:https://www.pinecone-io.com/

  • Milvus向量库中文文档https://www.milvus-io.com/overview

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/85493
推荐阅读
相关标签
  

闽ICP备14008679号