当前位置:   article > 正文

【wails】(10):研究go-llama.cpp项目,但是发现不支持最新的qwen大模型,可以运行llama-2-7b-chat_llama-2-7b-chat.q3_k_s.gguf

llama-2-7b-chat.q3_k_s.gguf

1,视频演示地址

2,项目地址go-llama.cpp

下载并进行编译:

git clone --recurse-submodules https://github.com/go-skynet/go-llama.cpp
cd go-llama.cpp
make libbinding.a
  • 1
  • 2
  • 3

项目中还打了个补丁:

在这里插入图片描述

编译成功,虽然有一点 warning 警告信息,问题不大。
在这里插入图片描述

3,然后运行 llama-2-7b-chat 模型


LIBRARY_PATH=$PWD C_INCLUDE_PATH=$PWD go run ./examples -m "/data/home/test/hf_cache/llama-2-7b-chat.Q2_K.gguf" -t 14

LIBRARY_PATH=$PWD C_INCLUDE_PATH=$PWD go run ./examples -m "/data/home/test/hf_cache/qwen1_5-0_5b-chat-q6_k.gguf" -t 14

  • 1
  • 2
  • 3
  • 4
  • 5
error loading model: unknown model architecture: 'qwen2'
llama_load_model_from_file: failed to load model
llama_init_from_gpt_params: error: failed to load model '/data/home/test/hf_cache/qwen1_5-0_5b-chat-q6_k.gguf'
load_binding_model: error: unable to load model
Loading the model failed: failed loading model

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/520755
推荐阅读
相关标签
  

闽ICP备14008679号