当前位置:   article > 正文

kimi开放API使用了,来看如何使用_kimi api

kimi api

更多精彩内容在公众号。

kimi现在算是国内火得不行的AI工具。最近使用人太多,都经常出现响应不过来的情况。借助这波热潮,kimi顺势推出了API使用。

来看kimi的官方介绍使用。https://platform.moonshot.cn

文本生成模型

Moonshot的文本生成模型(指moonshot-v1)是训练用于理解自然语言和书面语言的,它可以根据输入生成文本输出。对模型的输入也被称为“prompt”。通常我们建议您提供明确的指令以及给出一些范例,来让模型能够完成既定的任务,设计 prompt 本质上就是学会如何“训练”模型。moonshot-v1模型可以用于各种任务,包括内容或代码生成、摘要、对话、创意写作等。

Token

文本生成模型以 Token 为基本单位来处理文本。Token 代表常见的字符序列。例如,单个汉字"夔"可能会被分解为若干 Token 的组合,而像"中国"这样短且常见的短语则可能会使用单个 Token 。大致来说,对于一段通常的中文文本,1 个 Token 大约相当于 1.5-2 个汉字。

需要注意的是,对于我们的文本模型,Input 和 Output 的总和长度不能超过模型的最大上下文长度。

模型列表

你可以使用我们的 List Models API 来获取当前可用的模型列表。

当前的,我们支持的模型有:

  • moonshot-v1-8k: 它是一个长度为 8k 的模型,适用于生成短文本。

  • moonshot-v1-32k: 它是一个长度为 32k 的模型,适用于生成长文本。

  • moonshot-v1-128k: 它是一个长度为 128k 的模型,适用于生成超长文本。

以上模型的区别在于它们的最大上下文长度,这个长度包括了输入消息和生成的输出,在效果上并没有什么区别。这个主要是为了方便用户选择合适的模型。

使用方法:

需要提供一个 API 密钥和一个模型名称。模型名称在前面已经列出。那么首先申请一个API密钥

API密钥申请在kimi的控制台:https://platform.moonshot.cn/console/info

账号登录后看到账户总览里面,送了15元

图片

在API key管理界面中新建一个key

图片

生成后可以看到创建的key,注意:密钥是不会在界面上显示的,创建成功后需要自己保存。

图片

python调用方法:

首先安装openai库

pip3 install openai

pip3 show openai可以查看openai的版本.openai的版本要大于1.0

图片

来看一个代码示例,在这个例子中让kimi给出了python lxml库的介绍以及使用方法。其中api_key替换成自己申请的密钥

  1. from openai import OpenAI
  2. client = OpenAI(
  3. api_key="api_key",
  4. base_url="https://api.moonshot.cn/v1",
  5. )
  6. completion = client.chat.completions.create(
  7. model="moonshot-v1-8k",
  8. messages=[
  9. {"role": "system",
  10. "content": "你是 Kimi,由 Moonshot AI 提供的人工智能助手,你更擅长中文和英文的对话。你会为用户提供安全,有帮助,准确的回答。同时,你会拒绝一切涉及恐怖主义,种族歧视,黄色暴力等问题的回答。Moonshot AI 为专有名词,不可翻译成其他语言。"},
  11. {"role": "user", "content": "你好,请给出python库lxml的介绍以及详细用法"}
  12. ],
  13. temperature=0.3,
  14. )
  15. print(completion.choices[0].message)

返回的结果如下。格式需要另外整理下

ChatCompletionMessage(content="你好!`lxml` 是一个用 Python 编写的库,它提供了一个简单而强大的方式来处理 XML 和 HTML 数据。`lxml` 具有多种功能,包括解析、创建、修改、查询和转换 XML 和 HTML 文档。它支持 XPath 和 XSLT,并且通常被认为是 Python 中处理 XML 数据最快的库之一。\n\n### 特点:\n- 高性能:`lxml` 使用 C 语言编写核心解析器,因此它比纯 Python 解决方案更快。\n- 易用性:`lxml` 提供了一个简洁的 API,使得处理 XML 和 HTML 变得简单。\n- 功能全面:支持 XPath 表达式进行数据查询,XSLT 转换,以及轻松处理命名空间。\n\n### 安装:\n你可以使用 pip 来安装 `lxml` 库。在命令行中运行以下命令:\n\n```bash\npip install lxml\n```\n\n### 基本用法:\n\n#### 解析 XML/HTML:\n```python\nfrom lxml import etree\n\n# 解析字符串\nxml_string = '<root><element>Content</element></root>'\ntree = etree.fromstring(xml_string)\n\n# 解析文件\nwith open('example.xml', 'r') as file:\n    tree = etree.parse(file)\n\n# 遍历 XML 元素\nfor element in tree.iter('element'):\n    print(element.text)\n```\n\n#### 创建 XML:\n```python\n# 创建一个新的 XML 树\nroot = etree.Element('root')\nchild = etree.Element('child')\ntext = etree.SubElement(child, 'text', text='Some content')\n\n# 添加子元素到根元素\nroot.append(child)\n\n# 将 XML 树写入字符串\nxml_string = etree.tostring(root, pretty_print=True)\nprint(xml_string)\n```\n\n#### 使用 XPath 查询:\n```python\n# 假设我们已经解析了一个 XML 文档到 tree 变量\n# 使用 XPath 查询选择所有 <element> 标签\nfor element in tree.xpath('//root/element'):\n    print(element.text)\n\n# 使用 XPath 选择第一个 <element> 标签\nelement = tree.xpath('//root/element[1]')\nprint(element[0].text if element else None)\n```\n\n#### 应用 XSLT 转换:\n```python\nfrom lxml import xslt\n\n# 假设我们有一个 XSLT 文件 transform.xslt\nxslt_string = 'transform.xslt'\n\n# 编译 XSLT\ntransform = xslt.parse(", rolxslt_string)\n\n# 应用 XSLT 转换到 XML 文档\nresult_tree = transform(tree)\nprint(etree.tostring(result_tree, pretty_print=True))\n```\n\n这些是 `lxml` 的一些基本用法`lxml` 的功能非常强大,可以处理复杂的 XMLHTML 数据,包括但不限于数据抓取数据清洗模板转换等如果你需要更详细的文档和高级用法,可以查看 `lxml` 的官方文档e='assistant', function_call=None, tool_calls=None)

上传文档并解析的方法:

  1. from pathlib import Path
  2. from openai import OpenAI
  3. client = OpenAI(
  4. api_key="MOONSHOT_API_KEY",
  5. base_url="https://api.moonshot.cn/v1",
  6. )
  7. # xlnet.pdf 是一个示例文件, 我们支持 pdf, doc 以及图片等格式, 对于图片和 pdf 文件,提供 ocr 相关能力
  8. # xlnet.pdf 是一个示例文件, 我们支持 pdf, doc 以及图片等格式, 对于图片和 pdf 文件,提供 ocr 相关能力
  9. file_object = client.files.create(file=Path("xlnet.pdf"), purpose="file-extract")
  10. # 获取结果
  11. # file_content = client.files.retrieve_content(file_id=file_object.id)
  12. # 注意,之前 retrieve_content api 在最新版本标记了 warning, 可以用下面这行代替
  13. # 如果是旧版本,可以用 retrieve_content
  14. file_content = client.files.content(file_id=file_object.id).text
  15. # 把它放进请求中
  16. messages=[
  17. {
  18. "role": "system",
  19. "content": "你是 Kimi,由 Moonshot AI 提供的人工智能助手,你更擅长中文和英文的对话。你会为用户提供安全,有帮助,准确的回答。同时,你会拒绝一切涉及恐怖主义,种族歧视,黄色暴力等问题的回答。Moonshot AI 为专有名词,不可翻译成其他语言。",
  20. },
  21. {
  22. "role": "system",
  23. "content": file_content,
  24. },
  25. {"role": "user", "content": "请简单介绍 xlnet.pdf 讲了啥"},
  26. ]
  27. # 然后调用 chat-completion, 获取 kimi 的回答
  28. completion = client.chat.completions.create(
  29. model="moonshot-v1-32k",
  30. messages=messages,
  31. temperature=0.3,
  32. )
  33. print(completion.choices[0].message)

更多的使用方法参考API文档:

图片

收费限速标准

kimi的收费标准参考下表

图片

限速标准如下

图片

图片

官方的解释:

速率限制通过4种方式衡量:并发、RPM(每分钟请求数)、TPM(每分钟 Token 数)、TPD(每天 Token 数)。速率限制可能会在任何一种选项中达到,取决于哪个先发生。例如,你可能向 ChatCompletions 发送了 20 个请求,每个请求只有 100 个 Token ,那么你就达到了限制(如果你的 RPM 限制是 20),即使你在这些 20 个请求中没有发满 200k 个 Token (假设你的TPM限制是 200k)。

对网关,出于方便考虑,我们会基于请求中的 max_tokens 参数来计算速率限制。这意味着,如果你的请求中包含了 max_tokens 参数,我们会使用这个参数来计算速率限制。如果你的请求中没有包含 max_tokens 参数,我们会使用默认的 max_tokens 参数来计算速率限制。当你发出请求后,我们会基于你请求的 token 数量加上你 max_tokens 参数的数量来判断你是否达到了速率限制。而不考虑实际生成的 token 数量。

而在计费环节中,我们会基于你请求的 token 数量加上实际生成的 token 数量来计算费用。

我刚才的查询消耗695个token,还没到1M的标准

图片

因此还没扣钱

图片

这收费和限速标准还是略贵

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
  

闽ICP备14008679号