当前位置:   article > 正文

使用语音识别+声纹识别实现智能会议记录_pyannote.audio 声纹 保存

pyannote.audio 声纹 保存

前面一篇文章已经成功使用pyannote-audio实现了声纹识别,现在准备将其与语音识别相结合以实现对语音文件的深入分析,这在会议记录等场景中尤为有用。

环境准备

对于声纹识别,我们依然选择pyannote-audio。至于语音识别,市面上有许多优秀的模型可供选择,例如whisper、FunASR等。在本文中,我们将使用whisper作为语音识别的模型。
需要注意的是,pyannote-audio和whisper这两个模型所需的环境略有不同。为了方便管理,我们可以适当调整现有环境。以下是推荐的环境配置:
pyannote-audio版本:2.1.1(降低版本以适配其他模型)
Python版本:3.9
PyTorch版本:1.11.0

Annotation

Annotation是pyannote.core中的一个类,是存储speaker dirazation结果的一个容器,其中包含start、end以及label等信息,分别代表segment的开始时间、结束时间以及说话人标识。
在这里插入图片描述

该类中内置的函数有以下几个:

from pyannote.core import Segment, Annotation

# 获取说话人标识
labels = annotations.labels()
# 输出 ['SPEAKER_00', 'SPEAKER_01', 'SPEAKER_02', 'SPEAKER_03', 'SPEAKER_04', 'SPEAKER_05']

# 获取说话人时长
charts = annotations.chart()
# 输出 [('SPEAKER_02', 95.14125000000011), ('SPEAKER_00', 42.37312499999992), ('SPEAKER_01', 37.49625000000003), ('SPEAKER_04', 18.34312500000003), ('SPEAKER_05', 12.892499999999949), ('SPEAKER_03', 10.209375000000003)]

# 获取所有segtment
segments = list(annotations.itertracks())
# 输出 [(<Segment(1.31347, 1.51597)>, 'A'), (<Segment(2.03909, 3.94597)>, 'B'), (<Segment(4.84034, 6.76409)>, 'C')...]

# 获取指定说话人timeline
duration = annotations.label_timeline('SPEAKER_00')
# 输出[[ 00:00:20.787 -->  00:00:22.474][ 00:00:22.947 -->  00:00:24.803][ 00:00:25.090 -->  00:00:27.672]...]

# 获取指定时间范围的annotation
ann_crop = annotations.crop(Segment(10, 30))
# [ 00:00:10.000 -->  00:00:10.324] E SPEAKER_03
# [ 00:00:10.324 -->  00:00:11.455] F SPEAKER_02
# [ 00:00:12.130 -->  00:00:14.577] G SPEAKER_03
# [ 00:00:20.787 -->  00:00:22.474] H SPEAKER_00
# [ 00:00:22.947 -->  00:00:24.803] I SPEAKER_00
# [ 00:00:25.090 -->  00:00:27.672] J SPEAKER_00

# 获取说话时长最大的label
label_max = annotations.argmax()
# 输出 'SPEAKER_02'

# 替换原始的label,其中label_mapping格式为{'old_label':'new_label'}
result = annotations.rename_labels(label_mapping,generator='iterable')
# [ 00:00:22.947 -->  00:00:24.803] I aside
# [ 00:00:25.090 -->  00:00:27.672] J aside
# [ 00:00:32.684 -->  00:00:34.709] K peppa mom
# [ 00:00:34.962 -->  00:00:35.974] L aside
# [ 00:00:35.974 -->  00:00:40.176] M peppa dad
# [ 00:00:40.345 -->  00:00:43.315] N peppa dad
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39

Intergration

博主使用的是whisper作为语音识别模型,声纹识别与语音识别的结果格式均为开始时间、结束时间以及对应结果(说话人或说话内容)
而我们希望的输出格式如下

# start 开始时间/end 结束时间/speaker 说话人/text 说话内容
[start end] speaker text
  • 1
  • 2

考虑现有技术中中文的语音识别更为成熟,我们选择以语音识别结果为基准,添加对应的说话人信息,此处默认每一个sentence有且仅有一个对应的speaker,步骤如下:

  • 分别使用whisper和pyannote识别语音结果speech、声纹识别结果diarization
  • 使用embedding对比声纹库匹配diarization得到label对应的mapping
  • 替换diarization中的label
  • 遍历speech,使用annotation中的crop以及argmax函数提取该句的speaker
  • 将speech结果与speaker结合
  • 其中whisper过程、embedding过程在我的其他文章中以及给出就不再赘述,实现代码代码如下:
from pyannote.core import Segment, Annotation

# 输入语音结果、声纹识别结果、声纹库匹配结果
intergration(speech,diarization,label_mapping):
  # 替换原有的label
  diarization.rename_labels(label_mapping,generator='iterable')
  results = []
  # 遍历语音识别数组
  for item in speech['segments']:
    start = item['start']
    end = item['end']
    text = item['text']
    # 获取segments的说话人label
    speaker = diarization.crop(Segment(start,end)).argmax()
    line = f"{start:.1f}s - {end:.1f}s {speaker} {text}"
    result.append(line)
  return result
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

在这里插入图片描述

总结

在基本功能实现方面,我们已经取得了不错的进展。在准确率方面,我们也进行了一些测试。大部分情况下,声纹识别的准确率是可以接受的。然而,在以下几种情况下,声纹识别的准确率可能会有所下降:

  • 语气词,例如“啊”、“哈哈”等。
  • 小孩子说话。
  • 说话人非常多的对话场景。

为了提高识别准确率,大家可以在Hugging Face上寻找针对中文训练效果更好的模型。这些模型可能对于特定的语音特征有更好的识别能力。

结合声纹识别与语音识别,我们可以更准确地分析和记录会议内容,为后续的数据处理和分析提供坚实基础。希望这次的技术分享能对大家有所帮助,也欢迎大家在评论区交流心得和经验。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/288725
推荐阅读
相关标签
  

闽ICP备14008679号