当前位置:   article > 正文

二二、本地大模型集成语音识别模块_大模型私有部署语音识别

大模型私有部署语音识别

  接上节,搭建好本地大模型后,只支持文字问答,所以需要对语音输入进行增强。

1、环境搭建

在CMD中执行下面的命令行,创建一个名为Paraformer的Conda虚拟环境,且Python版本为3.7
conda activate paraformer
pip install ffmpeg
pip install aiofiles
pip install fastapi
pip install urllib3==1.26.15
pip install minio
Pip install edge-tts
pip install python-multipart

1.安装阿里达摩院相关依赖,实现文字转语音。
pip install "modelscope" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
2.安装torch依赖,并且使用清华源加速。
pip install torch torchvision torchaudio -i https://pypi.tuna.tsinghua.edu.cn/simple

3.安装Python的funasr模块,funasr的作用一般用来识别语音,语音转文字 edge-tts。
pip install funasr

2.模型下载

首次使用Python调用该环境进行语音转文本操作时,项目将会自动从阿里云拉取相应模型至本地。

3、本地minio库配置

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/905187
推荐阅读
相关标签
  

闽ICP备14008679号