当前位置:   article > 正文

离线语音Snowboy热词唤醒+ 树莓派语音交互实现开关灯

音频识别加热词唤醒

离线语音Snowboy热词唤醒

语音识别现在有非常广泛的应用场景,如手机的语音助手,智能音响(小爱,叮咚,天猫精灵...)等.
语音识别一般包含三个阶段:热词唤醒,语音录入,识别和逻辑控制阶段.

热词唤醒就是唤醒设备,让设备解析你接下来说的话.通常设备一直在录入周围的声音,但是设备此时不会有任何反应.当通过像「Hi,Siri」这样的唤醒词被唤醒以后,设备就开始处理接下来的声音了。热词唤醒是语音识别的开始。

Snowboy 是比较流行的热词唤醒框架,目前已经被百度收购。Snowboy 对中文支持友好,相对 Pocketsphinx 配置使用较为简单,推荐使用。

snowboy官方文档地址[英文的] http://docs.kitt.ai/snowboy

安装

一、获取源代码并编译
安装依赖

树莓派原生的音频设备是不支持语音输入的(无法录音),需要在网上购买一支免驱动的USB音频驱动,一般插上即可直接使用。
建议安装下 pulseaudio 软件,减少音频配置的步骤:
$ sudo apt-get install pulseaudio

安装 sox 软件测试录音与播放功能:
$ sudo apt-get install sox

安装完成后运行 sox -d -d 命令,对着麦克风说话,确认可以听到自己的声音。

安装其他软件依赖

  • 安装 PyAudio:$ sudo apt-get install python3-pyaudio
  • 安装 SWIG(>3.0.10):$ sudo apt-get install swig
  • 安装 ATLS:$ sudo apt-get install libatls-base-dev
编译源代码

获取源代码:$ git clone https://github.com/Kitt-AI/snowboy.git
编译 Python3 绑定:$ cd snowboy/swig/Python3 && make

测试

如果使用的是树莓派,你还需要在~/.asoundrc更改声卡设置:

  1. type asym
  2. playback.pcm {
  3. type plug
  4. slave.pcm "hw:0,0"
  5. }
  6. capture.pcm {
  7. type plug
  8. slave.pcm "hw:1,0"
  9. }
  10. }

进入官方示例目录 snowboy/examples/Python3 并运行以下命令:
$ python3 demo.py resources/models/snowboy.umdl
( 命令中的 snowboy.umdl 文件即语音识别模型

然后对着麦克风清晰地讲出“snowboy”,如果可以听到“滴”的声音,则安装配置成功。

PS:官方源代码使用 Python3 测试有报错,经测试需修改 snowboy/examples/Python3 目录下的 snowboydecoder.py 文件。
将第 5 行代码 from * import snowboydetect 改为 import snowboydetect 即可直接运行。

快速开始

GitHub 上有比较详细的 Demo,强烈建议先看看。先创建一个 HotwordDetect 类,这个类包含唤醒模型,声音增益,灵敏度等参数。然后初始化 Detector 对象,Snowboy 的 Detector 类存在下载下来的源码里。训练模型可以是单个,也可以是列表形式。

  1. from .. import snowboydetect
  2. class HotwordDetect(object):
  3. def __init__(self, decoder_model,
  4. resource,
  5. sensitivity=0.38,
  6. audio_gain=1):
  7. """init"""
  8. self.detector = snowboydetect.SnowboyDetect(
  9. resource_filename=resource.encode(),
  10. model_str=decoder_model.encode())
  11. self.detector.SetAudioGain(audio_gain)

初始化以后可以创建启动方法,启动方法一般会指定一个唤醒回调函数,也就是 「Hi,Siri」之后可能出现的「叮」声;还可以指定录音回调函数,也就是设备唤醒以后你需要用这些声音去干什么:

  1. class HotwordDetect(object):
  2. ...
  3. def listen(self, detected_callback,
  4. interrupt_check=lambda: False,
  5. audio_recorder_callback):
  6. """begin to listen"""
  7. ...
  8. state = "PASSIVE"
  9. while True:
  10. status = self.detector.RunDetection(data)
  11. ...
  12. if state == "PASSIVE":
  13. tetected_callback()
  14. state = "ACTIVE"
  15. continue
  16. elif state == "ACTIVE":
  17. audio_recorder_callback()
  18. state = "ACTIVE"
  19. continue

这里的逻辑可以自己去定义,主要是在两个状态间切换,当设备接收到唤醒词以后,status 会指出被识别到的唤醒词的序号,比如你定义了 「Siri」和 「Xiaowei」两个唤醒词,status 为 1 就表示 Siri 被唤醒,status 为 2 就表示 Xiaowei 被唤醒。然后将状态改成激活状态,这个时候执行 audio_recorder_callback 方法,执行完后将状态切换回唤醒状态。

在线语音识别

当设备被唤醒以后,你可以拿到录音数据去做任何想做的事情,包括调取百度等语音识别接口。这些逻辑都包含在 audio_recorder_callback 回调方法中。需要注意的是 Snowboy 目前只支持 16000 的录音采样率,其他采样率的录音数据都不能使用,你可以通过两种办法来解决:

  • 使用支持 16000 采样率的声卡
  • 进行录音数据的采样率转换

目前比较大的两家声卡芯片公司 C-Media 和 RealTek 一般产品都是 48k 以上的,支持 16k 的芯片一般比较贵,可能到 60 元左右。「绿联」有两款产品可以支持,购买时请查看产品参数,对照芯片公司的产品型号是否支持 16k 采样。

声音模型的训练

官方提供两种模式进行个性化声音模型创建:

  • website。只要你有 GitHub,Google 和 Facebook 帐号中的一种,登录就可以录音完成训练。
  • train-api。根据文档传指定的参数就可以完成训练,api 返回给你升学模型的数据。

这两种方式获得的都是私人的声音模型,获取的是 .pmdl的文件形式。一般化的 universal 模型不提供,需要联系官方商业合作。获取到的模型,越多人测试准确率越高,为了提高准确率,你可以邀请更多人来测试你的模型。还有麦克风的种类也会影响准确度,在什么设备上使用就在那个设备上训练模型能提高准确率。语音识别是一个比较精尖的技术,需要注意很多问题,正如 ChenGuo 说的:

Speech Recognition is not that easy.

在自己的项目中使用

将以下文件复制到自己的项目目录下:

  • 下载好的 model.pmdl 模型文件
  • snowboy/swig/Python3 目录下编译好的 _snowboydetect.so
  • snowboy/examples/Python3 目录下的 demo.pysnowboydecoder.pysnowboydetect.py 文件以及 resources 目录
  • 在项目目录下执行 $ python3 demo.py model.pmdl 并使用自己的唤醒词进行测试

orangePi下使用语音识别来实现语音开关灯,需要联网使用.

gpio.py

  1. #!/usr/bin/env python
  2. # encoding: utf-8
  3. #
  4. # 香橙派(orangepi)的GPIO操控,详细查下以前的帖子.
  5. #
  6. """
  7. @version: ??
  8. @author: lvusyy
  9. @license: Apache Licence
  10. @contact: lvusyy@gmail.com
  11. @site: https://github.com/lvusyy/
  12. @software: PyCharm
  13. @file: gpio.py
  14. @time: 2018/3/13 18:45
  15. """
  16. import wiringpi as wp
  17. class GPIO():
  18. def __init__(self):
  19. self.wp=wp
  20. wp.wiringPiSetupGpio()
  21. #wp.pinMode(18, 1)
  22. #wp.pinMode(23, 0)
  23. def setPinMode(self,pin,mode):
  24. self.wp.pinMode(pin,mode)
  25. def setV(self,pin,v):
  26. self.wp.digitalWrite(pin,v)
  27. def getV(self,pin):
  28. return self.wp.digitalRead(pin)

之前案例修改了以下. control.py

  1. #!/usr/bin/env python
  2. # encoding: utf-8
  3. #
  4. # 利用热词唤醒后使用百度语音识别api识别语音指令,然后匹配操作指令.如关灯,开灯操作.
  5. ### 使用snowboy的多个热词唤醒,效果会更好,而且不需要网络. 有空测试.
  6. """
  7. @version: ??
  8. @author: lvusyy
  9. @license: Apache Licence
  10. @contact: lvusyy@gmail.com
  11. @site: https://github.com/lvusyy/
  12. @software: PyCharm
  13. @file: control.py
  14. @time: 2018/3/13 17:30
  15. """
  16. import os
  17. import sys
  18. sys.path.append(os.path.dirname(os.path.dirname(os.path.abspath(__file__))))
  19. import time
  20. import pyaudio
  21. import wave
  22. import pygame
  23. import snowboydecoder
  24. import signal
  25. from gpio import GPIO
  26. from aip import AipSpeech
  27. APP_ID = '109472xxx'
  28. API_KEY = 'd3zd5wuaMrL21IusNqdQxxxx'
  29. SECRET_KEY = '84e98541331eb1736ad80457b4faxxxx'
  30. APIClient = AipSpeech(APP_ID, API_KEY, SECRET_KEY)
  31. interrupted = False
  32. #定义采集声音文件参数
  33. CHUNK = 1024
  34. FORMAT = pyaudio.paInt16 #16位采集
  35. CHANNELS = 1 #单声道
  36. RATE = 16000 #采样率
  37. RECORD_SECONDS = 5 #采样时长 定义为9秒的录音
  38. WAVE_OUTPUT_FILENAME = "./myvoice.pcm" #采集声音文件存储路径
  39. class Light():
  40. def __init__(self):
  41. self.pin=18
  42. self.mode=1 #open is 1 close is 0
  43. self.mgpio=GPIO()
  44. self.mgpio.setPinMode(pin=self.pin,mode=1) #OUTPUT 1 INPUT 0
  45. def on(self):
  46. ''
  47. self.mgpio.setV(self.pin,self.mode)
  48. def off(self):
  49. ''
  50. self.mgpio.setV(self.pin,self.mode&0)
  51. def status(self):
  52. #0 is off 1 is on
  53. return self.mgpio.getV(self.pin)
  54. def get_file_content(filePath):
  55. with open(filePath, 'rb') as fp:
  56. return fp.read()
  57. def word_to_voice(text):
  58. result = APIClient.synthesis(text, 'zh', 1, {
  59. 'vol': 5, 'spd': 3, 'per': 3})
  60. if not isinstance(result, dict):
  61. with open('./audio.mp3', 'wb') as f:
  62. f.write(result)
  63. f.close()
  64. time.sleep(.2)
  65. pygame.mixer.music.load('./audio.mp3')#text文字转化的语音文件
  66. pygame.mixer.music.play()
  67. while pygame.mixer.music.get_busy() == True:
  68. print('waiting')
  69. def get_mic_voice_file(p):
  70. word_to_voice('请说开灯或关灯.')
  71. stream = p.open(format=FORMAT,
  72. channels=CHANNELS,
  73. rate=RATE,
  74. input=True,
  75. frames_per_buffer=CHUNK)
  76. print("* recording")
  77. frames = []
  78. for i in range(0, int(RATE / CHUNK * RECORD_SECONDS)):
  79. data = stream.read(CHUNK)
  80. frames.append(data)
  81. print("* done recording")
  82. stream.stop_stream()
  83. stream.close()
  84. #p.terminate()#这里先不使用p.terminate(),否则 p = pyaudio.PyAudio()将失效,还得重新初始化。
  85. wf = wave.open(WAVE_OUTPUT_FILENAME, 'wb')
  86. wf.setnchannels(CHANNELS)
  87. wf.setsampwidth(p.get_sample_size(FORMAT))
  88. wf.setframerate(RATE)
  89. wf.writeframes(b''.join(frames))
  90. wf.close()
  91. print('recording finished')
  92. def baidu_get_words(client):
  93. results = client.asr(get_file_content(WAVE_OUTPUT_FILENAME), 'pcm', 16000, { 'dev_pid': 1536, })
  94. # print(results['result'])
  95. words=results['result'][0]
  96. return words
  97. #_*_ coding:UTF-8 _*_
  98. # @author: zdl
  99. # 实现离线语音唤醒和语音识别,实现一些语音交互控制
  100. # 导入包
  101. def signal_handler(signal, frame):
  102. global interrupted
  103. interrupted = True
  104. def interrupt_callback():
  105. global interrupted
  106. return interrupted
  107. # 回调函数,语音识别在这里实现
  108. def callbacks():
  109. global detector
  110. # 语音唤醒后,提示ding两声
  111. # snowboydecoder.play_audio_file()
  112. pygame.mixer.music.load('./resources/ding.wav')#text文字转化的语音文件
  113. pygame.mixer.music.play()
  114. while pygame.mixer.music.get_busy() == True:
  115. print('waiting')
  116. #snowboydecoder.play_audio_file()
  117. # 关闭snowboy功能
  118. detector.terminate()
  119. # 开启语音识别
  120. get_mic_voice_file(p)
  121. rText=baidu_get_words(client=APIClient)
  122. if rText.find("开灯")!=-1:
  123. light.on()
  124. elif rText.find("关灯")!=-1:
  125. light.off()
  126. # 打开snowboy功能
  127. wake_up() # wake_up —> monitor —> wake_up 递归调用
  128. # 热词唤醒
  129. def wake_up():
  130. global detector
  131. model = './resources/models/snowboy.umdl' # 唤醒词为 SnowBoy
  132. # capture SIGINT signal, e.g., Ctrl+C
  133. signal.signal(signal.SIGINT, signal_handler)
  134. # 唤醒词检测函数,调整sensitivity参数可修改唤醒词检测的准确性
  135. detector = snowboydecoder.HotwordDetector(model, sensitivity=0.5)
  136. print('Listening... please say wake-up word:SnowBoy')
  137. # main loop
  138. # 回调函数 detected_callback=snowboydecoder.play_audio_file
  139. # 修改回调函数可实现我们想要的功能
  140. detector.start(detected_callback=callbacks, # 自定义回调函数
  141. interrupt_check=interrupt_callback,
  142. sleep_time=0.03)
  143. # 释放资源
  144. detector.terminate()
  145. if __name__ == '__main__':
  146. #初始化pygame,让之后播放语音合成的音频文件
  147. pygame.mixer.init()
  148. p = pyaudio.PyAudio()
  149. light=Light()
  150. wake_up()

相关参考文档:

http://docs.kitt.ai/snowboy/#api-v1-train

https://github.com/Kitt-AI/snowboy

https://looker53.github.io/2018/03/29/20180329-%E8%AF%AD%E9%9F%B3%E8%AF%86%E5%88%AB%E4%B9%8BSnowboy%E7%83%AD%E8%AF%8D%E5%94%A4%E9%86%92/

转载于:https://www.cnblogs.com/lovesKey/p/11080448.html

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/88270
推荐阅读
相关标签
  

闽ICP备14008679号