赞
踩
好了,那接下来看一下whisper
开源库的介绍
有五种模型大小,其中四种仅支持英语,提供速度和准确性的权衡。上面便是可用模型的名称、大致的内存需求和相对速度。如果是英文版的语音,直接想转换为英文。
本来我是想直接在我的本地电脑上安装环境的,也就是无非安装python、ffmpeg、以及whisper,但是发现电脑配置太低了,而且我想测试一下large
模型,CPU
肯定是不行,但是如果用本机的 GPU
也是快不到哪里去的。 所以这里我想到谷歌的colab.research.google.com 免费在线运行,而且我可以启用GPU硬件加速,感觉上还是非常快的,当然如果需要你还可以购买。
下面是我的免费配置 colab.research.google.com
运行起来还是非常流畅,真的香喷喷,如果需要我都想付费了。
可以应用于那些场景
!nvidia-smi -L !nvidia-smi
运行两个指令结果如下:
1.!nvidia-smi -L
:-L
参数用于列出系统上安装的所有 NVIDIA GPU 设备。运行此命令后,您将看到关于可用 GPU 的信息,包括其型号和 UUID。
2.!nvidia-smi
:不带任何参数运行 nvidia-smi
会显示有关 NVIDIA GPU 的详细信息,包括:
只不过这里我还没开始使用GPU而已,所以显示的是空的。
!pip install requests beautifulsoup4 !pip install git+https://github.com/openai/whisper.git import torch import sys device = torch.device('cuda:0') print('正在使用的设备:', device, file=sys.stderr) print('Whisper已经被安装请执行下一个单元')
这里主要就是安装whisper
#@markdown # ** whisper Model选择**声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/571518
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。