当前位置:   article > 正文

obsidian中使用ollama部署llama3,实现本地对话_obsidian ollama

obsidian ollama

文章首发于:https://wangguo.site/Blog/2024/Q2/2024-05-09/

1、ollama安装使用

1.1、ollama

Get up and running with large language models locally.

在这里插入图片描述

1.2、支持的模型列表

在这里插入图片描述

1.3、下载安装

在这里插入图片描述

1.4、使用(基于终端操作)

1.4.1、下载模型(以llama3为例)
ollama pull llama3 #llama3默认是8B的模型
  • 1

下载需要等待一段时间,同时也需要科学上网

1.4.2、使用模型
ollama run llama3
  • 1

在这里插入图片描述

2、obsidian中使用ollama

2.1、obsidian插件copilot

插件市场搜索copilot进行安装并启用
在这里插入图片描述

2.2、copilot中配置ollama

打开copilot的配置文件进行设置

2.2.1、default model修改为ollama

在这里插入图片描述

2.2.2、QA Setting设置为ollama-nomic-embed-text

需要先用ollama pull命令下载模型

ollama pull ollama-nomic-embed-text
  • 1

在这里插入图片描述

2.2.3、ollama设置model为llama3在这里插入图片描述

3、obsidian中使用llama3

3.1、执行ollama serve

此时需要关闭之前打开的ollama,重新用命令打开ollama

OLLAMA_ORIGINS=app://obsidian.md* ollama serve
  • 1

3.2、obsidian使用

  • 打开copilot对话窗口
    在这里插入图片描述
  • 设置为ollama
    在这里插入图片描述
  • 使用
    在这里插入图片描述

3.3、copilot中除了对话功能还有Long Note QA、Vault QA功能,可以继续探索使用一下

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/588570
推荐阅读
相关标签
  

闽ICP备14008679号