当前位置:   article > 正文

【ollama】ollama运行GLM4-9B和CodeGeeX4-ALL-9B_ollama glm4

ollama glm4

一、下载GGUF模型

使用modelscope下载

安装 pip install modelscope

  • 命令1
    modelscope download --model=LLM-Research/glm-4-9b-chat-GGUF --local_dir . glm-4-9b-chat.Q5_K.gguf
  • 命令2
    modelscope download --model=LLM-Research/codegeex4-all-9b-GGUF --local_dir . codegeex4-all-9b-Q5_K_M.gguf

二、使用

  1. 启动ollama服务
    ollama serve

  2. 创建ModelFile
    复制模型路径,创建名为“ModelFile”的meta文件,内容如下:

    FROM /path/to/glm-4-9b-chat.Q5_K.gguf
    #FROM /path/to/codegeex4-all-9b-Q5_K_M.gguf
    
    # set parameters
    PARAMETER stop "<|system|>"
    PARAMETER stop "<|user|>"
    PARAMETER stop "<|assistant|>"
    
    TEMPLATE """[gMASK]<sop>{{ if .System }}<|system|>
    {{ .System }}{{ end }}{{ if .Prompt }}<|user|>
    {{ .Prompt }}{{ end }}<|assistant|>
    {{ .Response }}"""
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
  3. 创建自定义模型
    使用ollama create命令创建自定义模型
    ollama create myglm4 --file ModelFile

  4. 运行模型
    ollama run myglm4

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/在线问答5/article/detail/943875
推荐阅读
相关标签
  

闽ICP备14008679号