赞
踩
语音识别技术在人工智能领域扮演着至关重要的角色,它使得人机交互更加自然和便捷。FunASR,作为阿里巴巴开源的一款基础语音识别工具包,旨在弥合学术研究与实际应用之间的技术鸿沟。它不仅提供了强大的功能,如非自回归端到端的语音识别、语音端点检测、标点恢复等,还通过持续的优化和更新,推动了语音识别技术的创新与进步。
FunASR集成了多种功能,包括但不限于:
FunASR团队持续关注学术研究的最新进展,将研究成果转化为实际应用,不断优化模型性能,如引入Qwen-Audio、Qwen-Audio-Chat等大规模模型,以及Whisper-large-v3模型,支持多语言识别和翻译。
FunASR提供了中文和英文的离线文件转写服务,以及中文实时语音听写服务。这些服务持续进行性能优化,提升VAD处理、内存占用和模型性能。
FunASR的社区软件包支持Windows平台,包含中文和英文离线文件转写服务以及中文实时听写服务,简化了部署流程。
FunASR开源了大量在工业数据上预训练的模型,如Paraformer-zh、Paraformer-zh-streaming、Paraformer-en、Conformer-en等,方便用户在ModelScope和Huggingface模型仓库中自由使用。
安装FunASR:
pip3 install -U funasr
从源代码安装:
git clone https://github.com/alibaba/FunASR.git
cd FunASR
pip3 install -e .
使用Paraformer-zh模型进行非实时语音识别:
from funasr import AutoModel
model = AutoModel(model="paraformer-zh", vad_model="fsmn-vad", punc_model="ct-punc",
# spk_model="cam++"
)
res = model.generate(input=f"{model.model_path}/example/asr_example.wav",
batch_size_s=300,
hotword='魔搭')
print(res)
使用Paraformer-zh-streaming模型进行实时语音识别:
from funasr import AutoModel model = AutoModel(model="paraformer-zh-streaming") chunk_size = [0, 10, 5] encoder_chunk_look_back = 4 decoder_chunk_look_back = 1 import soundfile import os wav_file = os.path.join(model.model_path, "example/asr_example.wav") speech, sample_rate = soundfile.read(wav_file) chunk_stride = chunk_size[1] * 960 # 600ms cache = {} total_chunk_num = int(len((speech)-1)/chunk_stride+1) for i in range(total_chunk_num): speech_chunk = speech[i*chunk_stride:(i+1)*chunk_stride] is_final = i == total_chunk_num - 1 res = model.generate(input=speech_chunk, cache=cache, is_final=is_final, chunk_size=chunk_size,encoder_chunk_look_back=encoder_chunk_look_back, decoder_chunk_look_back=decoder_chunk_look_back) print(res)
FunASR以其全面的功能、易用性和持续的更新,为语音识别的研究和应用提供了有力支持。无论是进行学术研究,还是在实际项目中应用,FunASR都是一个值得深入研究和使用的工具包。如需获取更多帮助或交流,欢迎访问FunASR的GitHub页面或加入钉钉群、微信群。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。