赞
踩
wok,github的readme里面写了这句话
这个比streamlit_chat好用
来看看源代码
变量__all__
,其值为一个包含多个字符串的列表。这个变量定义了当其他模块使用from module import *
语句导入当前模块时,哪些名称会被导入
能看出来确实是为LLM设计的hhh
还有不少类是空的,感觉很适合二次开发
核心在dialogue.py这个文件里面
ctrl+f 发现共有38处
都是调用的类中的方法
那个streamlit-chatbox目前输入只能是text,输出可以是很多种,看起来还挺方便的,发图片
from modelscope import snapshot_download
model_dir = snapshot_download('Shanghai_AI_Laboratory/internlm2-chat-7b', cache_dir='你的路径', revision='master')
网速快的时候还是挺爽的,划线画出来那个是默认路径
把用得上的放到list里面
emm internlm出现了很奇怪的bug,各种重复无止境循环… 换qwen玩了
默认的是bge-large-zh
这个和前面的LLM的路径,都只需要在configs下的model_config.py添加就行
还有一种很好用的下载方式
HF_ENDPOINT=https://hf-mirror.com HF_HUB_ENABLE_HF_TRANSFER=1 huggingface-cli download` 模型名 --local-dir=想要存的路径 --cache-dir=./cache --local-dir-use-symlinks=False
conda出现http429报错:CondaHTTPError: HTTP 429 TOO MANY REQUESTS for url <xxx> (我也遇到了这个错误)
报错:运行含有********的单元需要安装或更新ipykernel (pip比conda reinstall那个快)
噢对昨天说的st中和js交互发现有人写了个包
之后试试效果
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。