当前位置:   article > 正文

AI菜鸟向前飞 — 本地部署大语言模型之Ollama(保姆级指北)_ollama 本地部署

ollama 本地部署

开场白

    我用得很节省。。。不过我的OpenAI Key马上过期了 :(

图片

动手本地部署Ollama

    这里教大家如何在本地部署Ollama大语言模型,强烈建议大家使用Docker方式启动,这样你随时可,因为我听说Ollama的守护进程会一直占用你的机器资源

    闲言少叙,Docker运行环境所用的工具,强烈安利OrbStack...

    因为...OrbStack更快、更好

图片

Ollama(Docker Hub)

https://hub.docker.com/r/ollama/ollama

在命令行窗口执行命令

 

docker pull ollama/ollama

效果如下:

图片

图片

回到我们的OrbStack应用里就会存在一个镜像,就是它了(Unused) !

图片

接下来在命令行窗口 继续执行如下命令

 

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

效果如下:

图片

回到我们的OrbStack,看ollama已经成功启动

图片

下载Llama3(目前最新的大语言模型) 顺便介绍下Llama3的性能情况

图片

图片

言归正传,安装Llama3 Model的命令如下:

  • 1
 

docker exec -it ollama ollama run llama3

效果如下:

图片

图片

图片

用命令行小试模型

图片

这样Llama 3 本地大语言模型就安装好了:)

使用LangChain调用Ollama

我们用LangChain调用它测试一下~

Ollama方式

程序

 

from langchain_community.llms.ollama import Ollama llm = Ollama(model="llama3",temperature=0) res = llm.invoke("你是一名软件工程专家,请您回答一下什么是软件测试?请用中文回答。") print(res)

输出结果

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/718069
推荐阅读
相关标签