当前位置:   article > 正文

Chat With RTX 安装、使用问题记录_chatwithrxt

chatwithrxt

1.安装包运行检测环境失败

安装适合的的CUDAhttps://developer.nvidia.com/cuda-downloads?target_os=Windows&target_arch=x86_64&target_version=11

2.安装Chat With RTX 和 模型 Mistral 7B 失败

科学上网,可以单独装Chat With RTX 先,模型之后手动装
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.安装TensorRT-LLM

参考官方:https://github.com/NVIDIA/TensorRT-LLM/blob/rel/windows/README.md

参考命令:pip install tensorrt_llm --extra-index-url https://pypi.nvidia.com --extra-index-url https://download.pytorch.org/whl/cu121

实例:env_nvd_rag\python.exe -m pip install tensorrt_llm --extra-index-url https://pypi.nvidia.com --extra-index-url https://download.pytorch.org/whl/cu121
在这里插入图片描述
在这里插入图片描述

4.基于TensorRT-LLM构建新模型(别急着装先)

例如Qwen,参考:https://github.com/NVIDIA/TensorRT-LLM/blob/rel/examples/qwen/README.md

先安装下对应的依赖
在这里插入图片描述
根据文档提示进行构建
在这里插入图片描述

5.配置模型到RAG

在这里插入图片描述
在这里插入图片描述

6.启动程序 app_launch.bat

在这里插入图片描述

报错

0.ModuleNotFoundError: No module named ‘tensorrt_llm’

参考:3.安装TensorRT-LLM

1.FileNotFoundError: [Errno 2] No such file or directory: ‘F:\ChatWithRTX\RAG\trt-llm-rag-windows-main\model\mistral\mistral7b_int4_engine\config.json’

进行一个配置文件的修改
在这里插入图片描述

{
   "name": "Qwen 1.8B Chat int4",
    "installed": true,
    "metadata": {
        "model_path": "model\\Qwen\\Qwen-1_8B-Chat\\trt_engines\\int4_weight_only\\1-gpu",
        "engine": "qwen_float16_tp1_rank0.engine",
        "tokenizer_path": "model\\Qwen\\Qwen-1_8B-Chat",
        "max_new_tokens": 1024,
        "max_input_token": 4096,
        "temperature": 0.1
    }
},
{
    "name": "Mistral 7B int4",
    "installed": false,
    "metadata": {
        "model_path": "model\\mistral\\mistral7b_int4_engine",
        "engine": "llama_float16_tp1_rank0.engine",
        "tokenizer_path": "model\\mistral\\mistral7b_hf",
        "max_new_tokens": 1024,
        "max_input_token": 7168,
        "temperature": 0.1
    }
},
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24

在这里插入图片描述

2.gradio版本问题

使用官方提供的版本
在这里插入图片描述

3.gradio.exceptions.Error: 'Invalid session’报错

在这里插入图片描述

修改参考 “F:\ChatWithRTX\RAG\trt-llm-rag-windows-main\ui\user_interface.py”
在这里插入图片描述

def _validate_request(self, request: gr.Request):
        headers = request.headers
        session_key = None
        if 'cookie' in headers:
            cookies = headers['cookie']
            if '_s_chat_' in cookies:
                cookies = cookies.split('; ')
                for cookie in cookies:
                    key, value = cookie.split('=', 1)  # 在这里使用maxsplit参数
                    if key == '_s_chat_':
                        session_key = value
        
        if session_key is None or session_key != self._secure_cookie:
            raise Exception('session validation failed')  # 使用Exception代替字符串抛出错误
        
        return True
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

4.无法定位程序输入点 xxx bin\cudnn_adv_infer64_8.dll 上

webui正常启动了,但qwen无法使用,默认模型可以。。。(qwen模型问题继续研究)在这里插入图片描述

问下GPT:
在这里插入图片描述

重装了cuda、cudnn,配置了环境变量,还是报错,重装了chat With RTX,顺带把模型勾上装了次,居然不报错了,有点东西。

正常情况

自动打开浏览器访问webui
在这里插入图片描述

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/219828
推荐阅读
相关标签
  

闽ICP备14008679号