当前位置:   article > 正文

M2 运行 llamafile_llmafile

llmafile

安装llamafile很简单,进入官网,按照步骤安装运行即可。
https://github.com/Mozilla-Ocho/llamafile

  1. 下载 llava-v1.5-7b-q4.llamafile
  2. 赋予运行权限chmod +x llava-v1.5-7b-q4.llamafile
  3. 运行 ./llava-v1.5-7b-q4.llamafile -ngl 9999
    在这里插入图片描述
    速度确实是比 ollama 快,ollama 用 qwen 1.5 7B 的模型。llamafile运行的是LLaVA 1.5,也是 7B 模型。下次试试能不能把 qwen 模型接入。

运行时遇到了一个问题
the cpu feature AVX was required at build time but isn’t available on this system,解决这个问题,首先用 arm64 的 shell,然后用 root 启动 llamafile。

arch -arm64 sh
su
./llava-v1.5-7b-q4.llamafile -ngl 9999
  • 1
  • 2
  • 3
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/882190
推荐阅读
相关标签
  

闽ICP备14008679号