赞
踩
文章首发于:https://wangguo.site/Blog/2024/Q2/2024-05-09/
Get up and running with large language models locally.
ollama pull llama3 #llama3默认是8B的模型
下载需要等待一段时间,同时也需要科学上网
ollama run llama3
插件市场搜索copilot进行安装并启用
打开copilot的配置文件进行设置
需要先用ollama pull命令下载模型
ollama pull ollama-nomic-embed-text
此时需要关闭之前打开的ollama,重新用命令打开ollama
OLLAMA_ORIGINS=app://obsidian.md* ollama serve
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。