当前位置:   article > 正文

发现一个好东西,一键本地运行各种大模型!包括最新的Qwen1.5_qwen1_5-7b-chat-q5_k_m.gguf

qwen1_5-7b-chat-q5_k_m.gguf

只要只支持GGUF的大语言模型,都可以一键安装,一键运行,立马开始对话。简直就是...

下载地址:点击下载

"GGUF"代表GPT-Generated Unified Format,是一种由Georgi Gerganov定义发布的大模型文件格式。Georgi Gerganov是著名开源项目llama.cpp的创始人。

GGUF是一种二进制格式文件的规范,旨在使原始的大模型预训练结果经过转换后能够更快地被载入使用,并且消耗更低的资源。GGUF通过采用紧凑的二进制编码格式、优化的数据结构、内存映射等多种技术来保存大模型预训练结果,从而提高效率。

简而言之,GGUF可以理解为一种高效处理和使用大型语言模型的文件格式定义,它通过格式转换优化模型的加载速度和运行效率。

软件目前已经支持苹果的Mac M系列,微软的Windows系统,Linux系统。

除了可以直接对话之外,还支持API,而且硬件要求极低,真是要啥有啥。


本地玩转大模型绝对不是梦了。

今天,就拿Qwen来演示下!

首先当然是获取软件并安装。

安装简单到爆,只要双击EXE就可以了,不用任何配置。

打开后,可以看到一个搜索框,只要输入大模型的名字,或者huggingface的项目地址。就可以找到模型了。

由于Qwen已经和他们那个啥了。所以无需搜索,在软件上可以直接看到。

点一下 Download,就开始下载模型了。

下载过程中,软件底部会有进度条。

下载完成之后,点击顶部中间的下拉菜单,选择模型即可。

在User处输入问题,回车,就可以进行对话了!

一键安装,一键加载,一键聊天。

相当丝滑!!!

从截图中可以看到,我们已经成功和通义千问离线模型对上话了。

从图上数据可以看到,每秒能到达27tok,基本可以流畅对话了。

我本来想当然认为这是用了GPU。

实际上...看了一眼任务管理器,好像并没有用到。

有的话用得也不多。

这个东西就有点牛逼了。默认加载的是70亿参数的模型哦!!!

如果你觉得这个对话速度还是有点慢,那么我们来体验一下Qwen最小的大模型。

直接在搜索框里输入Qwen1.5。

找到0.5B的模型。

从详细信息中可以看到,这个模型只有664MB。

我们以前玩的大模型动不动就是5G起步,对比之下,这个大小实在是太安逸了。

另外,上面说过,这个软件不单单支持Qwen,还支持很多其他大语言模型。

应该是llama.cpp支持的模型都支持。

看着llama.cpp出现,看着基于它的应用出现。

技术发展真的是日新月异,我们都是这个时代的见证人。

由于网络原因,有些人可能无法获取软件或者模型。

我已经把模型放在网盘里了。

下载Models文件夹,然后通过软件设置模型路径,指向这个文件夹就可以了。

除了72B之外(一般设备也跑不了),另外5类模型全部给你们准备好了。

下载地址:点击获取软件和模型

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/520750
推荐阅读
相关标签
  

闽ICP备14008679号