赞
踩
什么是 Ollama ?
Ollama
是一个简明易用的本地大模型运行框架。能在本地启动并运行Llama 2
、Mistral
、Gemma
及其他大语言模型。
和老苏之前介绍的 LocalAI
比较类似,但是加载模型更容易,感觉上比较像 docker
,也采用了 tags
来区分模型的不同版本,尤其是 CLI
也采用了 pull
、rm
、run
等等;
因为老苏的小机器不支持
Nvidia GPU
,所以下面声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/336757
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。