当前位置:   article > 正文

使用ollama本地跑大模型_ollama问题

ollama问题

大家好,我是邵奈一,一个不务正业的程序猿、正儿八经的斜杠青年。
1、世人称我为:被代码耽误的诗人、没天赋的书法家、五音不全的歌手、专业跑龙套演员、不合格的运动员…
2、这几年,我整理了很多IT技术相关的教程给大家,爱生活、爱分享。
3、如果您觉得文章有用,请收藏,转发,评论,并关注我,谢谢!
博客导航跳转(请收藏):邵奈一的技术博客导航
| 公众号 | 微信 | CSDN | 掘金 | 51CTO | 简书 | 微博 |


0x00 教程内容

  1. 安装ollama
  2. 跑llama2-chinese大模型
  3. 安装并使用ollama-webui

问题一:ollama是什么?

  • 其实ollama就跟Docker类似,可以拉取模型,然后跑模型,达到一键部署的效果,非常好用。目前支持Mac、Linux版本,Win版本正在适配中。

问题二:玩此篇教程,需要哪些前置环境?

  • 需要先安装好Git、Docker、科学工具。

0x01 安装ollama

1. 下载地址

地址为:https://ollama.ai/download
在这里插入图片描述
装好后就可以用了。

2. 模型选择
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/498448
推荐阅读
相关标签
  

闽ICP备14008679号