当前位置:   article > 正文

llama3安装以及页面可视化_ollama3

ollama3

llama3安装以及页面可视化

一、ollama的安装

ollama官网https://ollama.com/
下载地址https://ollama.com/download
github下载: https://github.com/ollama/ollama/releases
在这里插入图片描述
注意: 安装前可以设置模型安装的位置,最好设置下。默认会在C盘用户文件夹下的.ollama/models文件夹中
在这里插入图片描述
描述: 当下载好后,双击安装,点击Install就可以了。

二、下载模型并运行ollama

安装ollama以后,win + R,输入cmd,打开terminal
输入ollama,只要出现下面这些,说明安装成功了

在这里插入图片描述
打开ollama的模型的网页:https://ollama.com/library
选中想要下载的模型,进入详情,以llama3举例:在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
根据上图选中你想要的模型,并copy下载命令。在terminal上执行。

注意: 当运行命令出现下列错误时,网上又提是代理proxy的问题。但我遇到的是Ollama版本的问题,尝试下载0.1.27版本,重新下载。

pulling manifest
Error: pull model manifest: Get "https://ollama.com/token?nonce=7IvIlMJgfGMaoIrPbu6Yrw&scope=repository%!A(MISSING)library%!F(MISSING)llama3%!A(MISSING)pull&service=ollama.com&ts=1713960299": read tcp 192.168.168.101:53318->34.120.132.20:443: wsarecv: An existing connection was forcibly closed by the remote host.
  • 1
  • 2

在这里插入图片描述

当出现下列情况,就表示安装好了
在这里插入图片描述
在这里插入图片描述

三、下载并配置AngthingLLM

AngthingLLM官网https://useanything.com
下载链接https://useanything.com/download

同样的选择对应的系统版本即可
在这里插入图片描述
在使用前,需要启动Ollama服务
执行ollama serve,ollama默认地址为:http://127.0.0.1:11434
注意: ollama安装默认是启动的,请退出,然后再运行ollama serve

然后双击打开AngthingLLM
首先是LLM Preference,LLM provider选择ollama,URL填写默认地址,后面的模型选择llama3,token填4096
在这里插入图片描述

Embedding Preferenc同样选择ollama,其余基本一致,max我看默认8192,我也填了8192
在这里插入图片描述

Vector Database就直接默认的LanceDB即可
在这里插入图片描述

此时我们新建工作区,名字就随便取,在右边就会有对话界面出现了
在这里插入图片描述
此时你就有了自己本地的语言模型了

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/574795
推荐阅读
相关标签
  

闽ICP备14008679号