当前位置:   article > 正文

GPT实战系列-智谱GLM-4的模型调用_智谱glmchat4实战

智谱glmchat4实战

GPT实战系列-智谱GLM-4的模型调用

GPT专栏文章:

GPT实战系列-实战Qwen通义千问在Cuda 12+24G部署方案_通义千问 ptuning-CSDN博客

GPT实战系列-ChatGLM3本地部署CUDA11+1080Ti+显卡24G实战方案

GPT实战系列-Baichuan2本地化部署实战方案

GPT实战系列-让CodeGeeX2帮你写代码和注释_codegeex 中文-CSDN博客

GPT实战系列-ChatGLM3管理工具的API接口_chatglm3 api文档-CSDN博客

GPT实战系列-大话LLM大模型训练-CSDN博客

GPT实战系列-LangChain + ChatGLM3构建天气查询助手

GPT实战系列-大模型为我所用之借用ChatGLM3构建查询助手

GPT实战系列-如何用自己数据微调ChatGLM2模型训练

GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案

ChatGLM系列国产大模型是智谱AI提供的系列语言模型,等了很久,GLM-4没有开源,只提供了API,官网价格也很贵,看来资本的力量开始体现了。

既然不开源,就给大家介绍如何调用它的API,用Python语言调用GLM-4 模型实现大模型应用。

智谱AI为所有用户提供一段时间,免费可以试用。

其实也很简单,就2步:

获得GLM4的 API key

注册并登录官网: 智谱AI开放平台

可以用手机号注册,或者CCF账号登录,查看API key,并复制,用于程序调用。

在这里插入图片描述

调用GLM4 API实现LLM简单应用

使用的时候,需要用到zhipuai模块。先 pip install 安装

pip install  zhipuai 
  • 1

设置key,调用api,创建模型参数,使用以下命令即可获得回答:

def simpleAPI():
    from zhipuai import ZhipuAI

    client = ZhipuAI(api_key=zhipuai_api_key) #APIKey
    response = client.chat.completions.create(
        model="glm-4",  # 填写需要调用的模型名称
        messages=[
            {"role": "assistant", "content": "我是人工智能助手GLM4"},
            {"role": "user", "content": "花儿为什么是红色的?宇宙什么颜色的?"},
        ],
        top_p=0.7,
    	temperature=0.9,
        # 使用流式输出时,在messages里面添加stream参数,打印时使用循环。
        stream=True,
    )
    # 非流式
    # print(response.choices[0].message.content)
    # 流式
    for chunk in response:
        print(chunk.choices[0].delta.content,end="")
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

觉得有用 收藏 收藏 收藏

点个赞 点个赞 点个赞

End

GPT专栏文章:

GPT实战系列-实战Qwen通义千问在Cuda 12+24G部署方案_通义千问 ptuning-CSDN博客

GPT实战系列-ChatGLM3本地部署CUDA11+1080Ti+显卡24G实战方案

GPT实战系列-Baichuan2本地化部署实战方案

GPT实战系列-让CodeGeeX2帮你写代码和注释_codegeex 中文-CSDN博客

GPT实战系列-ChatGLM3管理工具的API接口_chatglm3 api文档-CSDN博客

GPT实战系列-大话LLM大模型训练-CSDN博客

GPT实战系列-LangChain + ChatGLM3构建天气查询助手

GPT实战系列-大模型为我所用之借用ChatGLM3构建查询助手

GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(二)

GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(一)

GPT实战系列-ChatGLM2模型的微调训练参数解读

GPT实战系列-如何用自己数据微调ChatGLM2模型训练

GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案

GPT实战系列-Baichuan2等大模型的计算精度与量化

GPT实战系列-GPT训练的Pretraining,SFT,Reward Modeling,RLHF

GPT实战系列-探究GPT等大模型的文本生成-CSDN博客

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/711228
推荐阅读
相关标签
  

闽ICP备14008679号