赞
踩
GPT专栏文章:
GPT实战系列-实战Qwen通义千问在Cuda 12+24G部署方案_通义千问 ptuning-CSDN博客
GPT实战系列-ChatGLM3本地部署CUDA11+1080Ti+显卡24G实战方案
GPT实战系列-让CodeGeeX2帮你写代码和注释_codegeex 中文-CSDN博客
GPT实战系列-ChatGLM3管理工具的API接口_chatglm3 api文档-CSDN博客
GPT实战系列-LangChain + ChatGLM3构建天气查询助手
GPT实战系列-大模型为我所用之借用ChatGLM3构建查询助手
GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案
ChatGLM系列国产大模型是智谱AI提供的系列语言模型,等了很久,GLM-4没有开源,只提供了API,官网价格也很贵,看来资本的力量开始体现了。
既然不开源,就给大家介绍如何调用它的API,用Python语言调用GLM-4 模型实现大模型应用。
智谱AI为所有用户提供一段时间,免费可以试用。
其实也很简单,就2步:
注册并登录官网: 智谱AI开放平台
可以用手机号注册,或者CCF账号登录,查看API key,并复制,用于程序调用。
使用的时候,需要用到zhipuai模块。先 pip install 安装
pip install zhipuai
设置key,调用api,创建模型参数,使用以下命令即可获得回答:
def simpleAPI(): from zhipuai import ZhipuAI client = ZhipuAI(api_key=zhipuai_api_key) #APIKey response = client.chat.completions.create( model="glm-4", # 填写需要调用的模型名称 messages=[ {"role": "assistant", "content": "我是人工智能助手GLM4"}, {"role": "user", "content": "花儿为什么是红色的?宇宙什么颜色的?"}, ], top_p=0.7, temperature=0.9, # 使用流式输出时,在messages里面添加stream参数,打印时使用循环。 stream=True, ) # 非流式 # print(response.choices[0].message.content) # 流式 for chunk in response: print(chunk.choices[0].delta.content,end="")
觉得有用 收藏 收藏 收藏
点个赞 点个赞 点个赞
End
GPT专栏文章:
GPT实战系列-实战Qwen通义千问在Cuda 12+24G部署方案_通义千问 ptuning-CSDN博客
GPT实战系列-ChatGLM3本地部署CUDA11+1080Ti+显卡24G实战方案
GPT实战系列-让CodeGeeX2帮你写代码和注释_codegeex 中文-CSDN博客
GPT实战系列-ChatGLM3管理工具的API接口_chatglm3 api文档-CSDN博客
GPT实战系列-LangChain + ChatGLM3构建天气查询助手
GPT实战系列-大模型为我所用之借用ChatGLM3构建查询助手
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(二)
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(一)
GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。