赞
踩
llama_cpp_python版本不支持qwen2导致,可以更新到新版
- #卸载原有
- pip uninstall llama-cpp-python
- #安装新版,cuda-version为cu121、cu122、cu123、cu124,python版本仅支持3.10、3.11、3.12
- CMAKE_ARGS="-DLLAMA_CUDA=on -DLLAMA_CUBLAS=on" pip install llama-cpp-python \
- --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/<cuda-version>
-
- #假设为cuda 12.1
-
- CMAKE_ARGS="-DLLAMA_CUDA=on -DLLAMA_CUBLAS=on" pip install llama-cpp-python \
- --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cu121
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。