赞
踩
闻达:一个LLM调用平台。目标为针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题
本项目设计目标为实现针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题。为达目标,平台化集成了以下能力:
chatGLM-6B
、chatRWKV
、llama系列(不推荐中文用户)
、moss(不推荐)
、baichuan(不推荐)
、Aquila-7B
,在线API访问openai api
和chatGLM-130b api
。https://github.com/wenda-LLM/wenda.git
下载 Conda 安装脚本,
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
运行安装脚本,
bash Miniconda3-latest-Linux-x86_64.sh
按提示操作。当提示是否初始化 Conda 时,输入 “yes”,
安装完成后,关闭当前终端并打开新终端,这将激活 Conda,
sudo su - root
更新 Conda 至最新版本,
conda update conda
conda create -n wenda python==3.10.6
conda activate wenda
克隆代码,
git clone https://github.com/wenda-LLM/wenda.git; cd wenda
创建存放模型的目录,
mkdir model
创建 txt
的目录,
mkdir txt
创建配置文件,
cp example.config.yml config.yml
安装库,
pip install -r requirements/requirements.txt
验证 cuda 是否可用,
python -c "import torch; print(torch.cuda.is_available());"
--- 输出 True 表示 cuda 可用
True
---
下载 m3e-base 模型,
git lfs install
cd model/
git clone https://huggingface.co/moka-ai/m3e-base
cd ..
访问 https://huggingface.co/BlinkDL/rwkv-4-raven/tree/main,下载最新版 RWKV-4-Raven-14B 模型,
将下载后的模型拷贝/移动到 model 目录,
ls model
--- 输出中有 RWKV-4-Raven-14B 模型文件
RWKV-4-Raven-14B-v12-Eng98%-Other2%-20230523-ctx8192.pth
---
修改配置文件中 RWKV-4-Raven-14B 模型的 path,
vi config.yml
--- 将各个 model 的 path 修改正确
llm_models:
rwkv:
path: "model/RWKV-4-Raven-14B-v12-Eng98%-Other2%-20230523-ctx8192.pth" #rwkv模型位置"
---
启动 RWKV,
./run_rwkv.sh
使用浏览器打开 http://127.0.0.1:17860/ 进行访问,问它几个问题,大家可以通过截图体验一下它的回答水平怎么样。
创建 run_aquila.sh
启动脚本文件,
cat << "EOF" > run_aquila.sh
#!/bin/bash
PYTHON=""
# python程序位置,可搭配一键包或是省去每次切换环境
while true
do
if [ -z "$PYTHON" ]; then
python wenda.py -t aquila
else
$PYTHON wenda.py -t aquila
fi
sleep 1
done
EOF
chmod +x run_aquila.sh
启动 AquilaChat,
./run_aquila.sh
使用浏览器打开 http://127.0.0.1:17860/ 进行访问,问它几个问题,大家可以通过截图体验一下它的回答水平怎么样。
下载 baichuan-7B 模型,
git lfs install
cd model/
git clone https://huggingface.co/baichuan-inc/baichuan-7B
cd ..
创建 run_baichuan.sh
启动脚本文件,
cat << "EOF" > run_baichuan.sh
#!/bin/bash
PYTHON=""
# python程序位置,可搭配一键包或是省去每次切换环境
while true
do
if [ -z "$PYTHON" ]; then
python wenda.py -t baichuan
else
$PYTHON wenda.py -t baichuan
fi
sleep 1
done
EOF
chmod +x run_baichuan.sh
启动 baichuan,
./run_baichuan.sh
使用浏览器打开 http://127.0.0.1:17860/ 进行访问,问它几个问题,大家可以通过截图体验一下它的回答水平怎么样。
下载 baichuan-7B-chat 模型,
git lfs install
cd model/
git clone https://huggingface.co/csdc-atl/baichuan-7B-cha
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。