当前位置:   article > 正文

大模型生成,Open API调用_大模型的api openai格式为什么

大模型的api openai格式为什么

大模型是怎么生成结果的

通俗原理

其实,它只是根据上文,猜下一个词(的概率)……

OpenAI 的接口名就叫【completion】,也证明了其只会【生成】的本质。

下面用程序演示【生成下一个字】。你可以自己修改 prompt 试试。还可以用相同的 prompt 运行多次。

  1. from openai import OpenAI
  2. import os
  3. from dotenv import load_dotenv, find_dotenv
  4. _ = load_dotenv(find_dotenv())
  5. client = OpenAI()
  6. prompt = "今天我很" # 改我试试
  7. response = client.completions.create(
  8. model="gpt-3.5-turbo-instruct",
  9. prompt=prompt,
  10. max_tokens=20,
  11. stream=True
  12. )
  13. for chunk in response:
  14. print(chunk.choices[0].text, end='')

典型业务架构

AI Embedded 模式:某个环节用到AI

AI  Copilot 模式:很多环节用到AI

AI Agent 模式:AI被大量的应用,人做的事几乎微乎其微,只需提要求

技术架构

1、纯Prompt

就像和一个人对话,你说一句,ta回一句,你再说一句,ta再回一句……

2、RAG = Agent + Function Calling

Agent:AI主动提要求

Function Calling:AI要求执行某个函数

场景举例:你问过年去哪玩,ta先反问你有几天假

3、RAG = Embeddings + 向量数据库

向量搜索:根据输入向量,找到最相似的向量

场景举例:考试时,看到一道题,到书上找相关内容,再结合题目组成答案。然后就都忘了(打小抄) 

 4、Fine-tuning

(不打小抄,把知识记住了,回答效果更好)

编程调用 Open API

官方文档:https://platform.openai.com/docs/api-reference 

 1、安装OpenAI Python库

在命令行执行:

pip install --upgrade openai

2、发一条消息

  1. import openai
  2. import os
  3. # 加载 .env 文件到环境变量
  4. from dotenv import load_dotenv, find_dotenv
  5. _ = load_dotenv(find_dotenv())
  6. # 初始化 OpenAI 服务。会自动从环境变量加载 OPENAI_API_KEY 和 OPENAI_BASE_URL
  7. client = OpenAI()
  8. # 消息格式
  9. messages = [
  10. {
  11. "role": "system",
  12. "content": "你是AI助手小瓜,是 AGI 课程的助教。这门课每周二、四上课"
  13. },
  14. {
  15. "role": "user",
  16. "content": "哪天有课?"
  17. },
  18. }
  19. #调用GPT-3.5
  20. chat_completion = client.chat.completion.create(
  21. model="gpt-3.5-turbo",
  22. message=message
  23. )
  24. #输出回复
  25. print(chat_completion.choices[0].message.content)

这门课每周二、四有课。因此,下一堂课将在本周二举行,再次在本周四上课。

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号