赞
踩
某些场景下可能希望构建一个完全本地离线可用的大模型,方法很多,模型也很多,比如 qwen、qwen2、llama3等,最简单快捷的首推使用 ollama 部署,模型选用 qwen 或 qwen2,针对中文任务效果更好。
ollama下载地址: www.ollama.com/download
下载后双击安装
开始菜单中找到命令提示符,点击打开
或者随便打开任意一个文件夹,然后在文件夹地址栏中输入 cmd
按回车。
都能打开一个黑窗口
打开这个网址 www.ollama.com/library 可以选择要使用的模型
比如使用 qwen,点击进入后,会看到如下
点击下拉框,可选择模型版本列表,4b
代表该模型有40亿参数,当然参数越大效果越好,但同样也要求你的电脑配置越高,不够高的话不仅运行慢,还可能卡死机。
如果你有英伟达显卡,并且独立显存不低于12G,可以选择 14b
/ 32b
版本,否则建议选择 7b
选择后,右侧会显示对应的下载命令,点击复制图标复制该命令,以7b为例命令是 ollama run qwen:7b
复制后回到黑窗口,点击鼠标右键粘贴该命令,然后回车,就开始了下载,耐心等待下载完毕。
上面下载完毕后,就可以直接在黑窗口中使用了,试试先询问它是谁吧
还记得怎么打开cmd吗,用同样方法去打开它,然后同样去粘贴命令。7b的命令是ollama run qwen:7b
就自动打开了。
同样方法,去 www.ollama.com/library 这个地址找到想用的模型,点击进入,选择模型版本,复制右侧命令,到 cmd黑窗口中粘贴回车。
搭配 ollama 最好用的ui界面首推ollama官方的 docs.openwebui.com
如果你懂 docker部署或略懂代码,可参考手动安装。
如果你只想下载一个exe鼠标点点就能使用,可下载 chatbox,双击安装,同安装其他软件一样方法
第一次运行点击设置
然后点击“显示”,再从下拉框里选择 “ollama”
然后在模型下拉框里选择你要使用的模型,所有通过 ollama run 命令安装的模型都会在此显示,选择好后点击保存
接着就可以发问了。更多使用方法可在左侧探索哦
如果想更改模型怎么办呢?看到左下角的“设置”了吗,点它就行了
当然可以,打开视频翻译软件-左上角设置菜单-本地兼容openai大模型–填写地址“http://127.0.0.1:11434/v1”
就可以了。主界面翻译渠道选择“LocalLLM”,完毕
作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料
包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/寸_铁/article/detail/843798
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。