当前位置:   article > 正文

基于CNN+MFCC的语音情感识别_基于cnn的音乐情感识别

基于cnn的音乐情感识别

个人博客:http://www.chenjianqu.com/

原文链接:http://www.chenjianqu.com/show-45.html

 

近年来 ,随着信息技术的飞速发展 ,智能设备正在逐渐地融入到人们的日常生活当中 ,语音作为人机交互的最为便捷的方式之一 ,得到了广泛的应用。让机器听懂人类语言的同时 ,如何实现与人类有感情的自然交流 ,是无数科研工作者的目标。语音情感识别的主要内容就是建立一种能够从语音中分析和识别人类情感的计算系统 ,实现人与机器的人性化交流。 

    语音情感识别的主要任务是将蕴含在语音中的情感信息提取出来并识别出其类别。目前对于情感的描述主要有两种方法。第一种是基于离散的情感划分,将人类日常生活中广泛使用的基本情感分为愤怒、开心、兴奋、悲伤、厌恶等;另一种是基于连续维度情感划分,主要通过不同的效价度和激活程度来对不同情感进行区分的。

    那么作为一个分类任务,特征选择是最关键的一步。本文中使用的语音特征是梅尔倒谱系数,有关梅尔倒谱系数是什么和怎样提取的知识,可参阅文章《Python语音信号处理》

    本文在一定程度上参考了MITESHPUTHRANNEU/Speech-Emotion-Analyzer这个项目,下面开始介绍如何通过卷积神经网络进行语音情感分析。

 

神经网络结构

    使用到的架构其实还是很简单的,如下 

mfcc_model.png

 

 

数据集

    我使用到是CASIA的语音情感数据库。CASIA汉语情感语料库由中国科学院自动化所(Institute of Automation, Chinese Academy of Sciences)录制,共包括四个专业发音人,六种情绪生气(angry)、高兴(happy)、害怕(fear)、悲伤(sad)、惊讶(surprise)和中性(neutral),共9600句不同发音。其中300句是相同文本的,也即是说对相同的文本赋以不同的情感来阅读,这些语料可以用来对比分析不同情感状态下的声学及韵律表现;另外100句是不同文本的,这些文本从字面意思就可以看出其情感归属,便于录音人更准确地表现出情感。

    但是完整的CASIA数据集是收费的,因此我只找到了1200句残缺数据集。我把我找到的数据集放在我的网盘上:https://pan.baidu.com/s/1EsRoKaF17Q_3s2t7OMNibQ。

 

特征提取

    我使用librosa模块进行MFCC的提取,提取代码如下。

  1. %matplotlib inline
  2. import librosa
  3. import matplotlib.pyplot as plt
  4. import numpy as np
  5. path=r'D:\NLP\dataset\语音情感\test.wav'
  6. y,sr = librosa.load(path,sr=None)
  7. def normalizeVoiceLen(y,normalizedLen):
  8. nframes=len(y)
  9. y = np.reshape(y,[nframes,1]).T
  10. #归一化音频长度为2s,32000数据点
  11. if(nframes<normalizedLen):
  12. res=normalizedLen-nframes
  13. res_data=np.zeros([1,res],dtype=np.float32)
  14. y = np.reshape(y,[nframes,1]).T
  15. y=np.c_[y,res_data]
  16. else:
  17. y=y[:,0:normalizedLen]
  18. return y[0]
  19. def getNearestLen(framelength,sr):
  20. framesize = framelength*sr
  21. #找到与当前framesize最接近的2的正整数次方
  22. nfftdict = {}
  23. lists = [32,64,128,256,512,1024]
  24. for i in lists:
  25. nfftdict[i] = abs(framesize - i)
  26. sortlist = sorted(nfftdict.items(), key=lambda x: x[1])#按与当前framesize差值升序排列
  27. framesize = int(sortlist[0][0])#取最接近当前framesize的那个2的正整数次方值为新的framesize
  28. return framesize
  29. VOICE_LEN=32000
  30. #获得N_FFT的长度
  31. N_FFT=getNearestLen(0.25,sr)
  32. #统一声音范围为前两秒
  33. y=normalizeVoiceLen(y,VOICE_LEN)
  34. print(y.shape)
  35. #提取mfcc特征
  36. mfcc_data=librosa.feature.mfcc(y=y, sr=sr,n_mfcc=13,n_fft=N_FFT,hop_length=int(N_FFT/4))
  37. # 画出特征图,将MFCC可视化。转置矩阵,使得时域是水平的
  38. plt.matshow(mfcc_data)
  39. plt.title('MFCC')

上面代码的作用是加载声音,取声音的前两秒进行情感分析。getNearestLen()函数根据声音的采样率确定一个合适的语音帧长用于傅立叶变换。然后通过librosa.feature.mfcc()函数提取mfcc特征,并将其可视化。

    下面的代码将数据集中的mfcc特征提取出来,并对每帧的mfcc取平均,将结果保存为文件。

  1. #提取特征
  2. import os
  3. import pickle
  4. counter=0
  5. fileDirCASIA = r'D:\NLP\dataset\语音情感\CASIA database'
  6. mfccs={}
  7. mfccs['angry']=[]
  8. mfccs['fear']=[]
  9. mfccs['happy']=[]
  10. mfccs['neutral']=[]
  11. mfccs['sad']=[]
  12. mfccs['surprise']=[]
  13. mfccs['disgust']=[]
  14. listdir=os.listdir(fileDirCASIA)
  15. for persondir in listdir:
  16. if(not r'.' in persondir):
  17. emotionDirName=os.path.join(fileDirCASIA,persondir)
  18. emotiondir=os.listdir(emotionDirName)
  19. for ed in emotiondir:
  20. if(not r'.' in ed):
  21. filesDirName=os.path.join(emotionDirName,ed)
  22. files=os.listdir(filesDirName)
  23. for fileName in files:
  24. if(fileName[-3:]=='wav'):
  25. counter+=1
  26. fn=os.path.join(filesDirName,fileName)
  27. print(str(counter)+fn)
  28. y,sr = librosa.load(fn,sr=None)
  29. y=normalizeVoiceLen(y,VOICE_LEN)#归一化长度
  30. mfcc_data=librosa.feature.mfcc(y=y, sr=sr,n_mfcc=13,n_fft=N_FFT,hop_length=int(N_FFT/4))
  31. feature=np.mean(mfcc_data,axis=0)
  32. mfccs[ed].append(feature.tolist())
  33. with open('mfcc_feature_dict.pkl', 'wb') as f:
  34. pickle.dump(mfccs, f)

数据预处理

    代码如下:

  1. %matplotlib inline
  2. import pickle
  3. import os
  4. import librosa
  5. import matplotlib.pyplot as plt
  6. import numpy as np
  7. from keras import layers
  8. from keras import models
  9. from keras import optimizers
  10. from keras.utils import to_categorical
  11. #读取特征
  12. mfccs={}
  13. with open('mfcc_feature_dict.pkl', 'rb') as f:
  14. mfccs=pickle.load(f)
  15. #设置标签
  16. emotionDict={}
  17. emotionDict['angry']=0
  18. emotionDict['fear']=1
  19. emotionDict['happy']=2
  20. emotionDict['neutral']=3
  21. emotionDict['sad']=4
  22. emotionDict['surprise']=5
  23. data=[]
  24. labels=[]
  25. data=data+mfccs['angry']
  26. print(len(mfccs['angry']))
  27. for i in range(len(mfccs['angry'])):
  28. labels.append(0)
  29. data=data+mfccs['fear']
  30. print(len(mfccs['fear']))
  31. for i in range(len(mfccs['fear'])):
  32. labels.append(1)
  33. print(len(mfccs['happy']))
  34. data=data+mfccs['happy']
  35. for i in range(len(mfccs['happy'])):
  36. labels.append(2)
  37. print(len(mfccs['neutral']))
  38. data=data+mfccs['neutral']
  39. for i in range(len(mfccs['neutral'])):
  40. labels.append(3)
  41. print(len(mfccs['sad']))
  42. data=data+mfccs['sad']
  43. for i in range(len(mfccs['sad'])):
  44. labels.append(4)
  45. print(len(mfccs['surprise']))
  46. data=data+mfccs['surprise']
  47. for i in range(len(mfccs['surprise'])):
  48. labels.append(5)
  49. print(len(data))
  50. print(len(labels))
  51. #设置数据维度
  52. data=np.array(data)
  53. data=data.reshape((data.shape[0],data.shape[1],1))
  54. labels=np.array(labels)
  55. labels=to_categorical(labels)
  56. #数据标准化
  57. DATA_MEAN=np.mean(data,axis=0)
  58. DATA_STD=np.std(data,axis=0)
  59. data-=DATA_MEAN
  60. data/=DATA_STD

接下来保存好参数,模型预测的时候需要用到。

  1. paraDict={}
  2. paraDict['mean']=DATA_MEAN
  3. paraDict['std']=DATA_STD
  4. paraDict['emotion']=emotionDict
  5. with open('mfcc_model_para_dict.pkl', 'wb') as f:
  6. pickle.dump(paraDict, f)

  最后是打乱数据集并划分训练数据和测试数据。

  1. ratioTrain=0.8
  2. numTrain=int(data.shape[0]*ratioTrain)
  3. permutation = np.random.permutation(data.shape[0])
  4. data = data[permutation,:]
  5. labels = labels[permutation,:]
  6. x_train=data[:numTrain]
  7. x_val=data[numTrain:]
  8. y_train=labels[:numTrain]
  9. y_val=labels[numTrain:]
  10. print(x_train.shape)
  11. print(y_train.shape)
  12. print(x_val.shape)
  13. print(y_val.shape)

定义模型

    使用keras定义模型,代码如下:

  1. from keras.utils import plot_model
  2. from keras import regularizers
  3. model = models.Sequential()
  4. model.add(layers.Conv1D(256,5,activation='relu',input_shape=(126,1)))
  5. model.add(layers.Conv1D(128,5,padding='same',activation='relu',kernel_regularizer=regularizers.l2(0.001)))
  6. model.add(layers.Dropout(0.2))
  7. model.add(layers.MaxPooling1D(pool_size=(8)))
  8. model.add(layers.Conv1D(128,5,activation='relu',padding='same',kernel_regularizer=regularizers.l2(0.001)))
  9. model.add(layers.Dropout(0.2))
  10. model.add(layers.Conv1D(128,5,activation='relu',padding='same',kernel_regularizer=regularizers.l2(0.001)))
  11. model.add(layers.Dropout(0.2))
  12. model.add(layers.Conv1D(128,5,padding='same',activation='relu',kernel_regularizer=regularizers.l2(0.001)))
  13. model.add(layers.Dropout(0.2))
  14. model.add(layers.MaxPooling1D(pool_size=(3)))
  15. model.add(layers.Conv1D(256,5,padding='same',activation='relu',kernel_regularizer=regularizers.l2(0.001)))
  16. model.add(layers.Dropout(0.2))
  17. model.add(layers.Flatten())
  18. model.add(layers.Dense(6,activation='softmax'))
  19. plot_model(model,to_file='mfcc_model.png',show_shapes=True)
  20. model.summary()

训练模型

    编译并训练模型

  1. opt = optimizers.rmsprop(lr=0.0001, decay=1e-6)
  2. model.compile(loss='categorical_crossentropy', optimizer=opt,metrics=['accuracy'])
  3. import keras
  4. callbacks_list=[
  5. keras.callbacks.EarlyStopping(
  6. monitor='acc',
  7. patience=50,
  8. ),
  9. keras.callbacks.ModelCheckpoint(
  10. filepath='speechmfcc_model_checkpoint.h5',
  11. monitor='val_loss',
  12. save_best_only=True
  13. ),
  14. keras.callbacks.TensorBoard(
  15. log_dir='speechmfcc_train_log'
  16. )
  17. ]
  18. history=model.fit(x_train, y_train,
  19. batch_size=16,
  20. epochs=200,
  21. validation_data=(x_val, y_val),
  22. callbacks=callbacks_list)
  23. model.save('speech_mfcc_model.h5')
  24. model.save_weights('speech_mfcc_model_weight.h5')

 可视化训练结果:

  1. plt.plot(history.history['loss'])
  2. plt.plot(history.history['val_loss'])
  3. plt.title('model loss')
  4. plt.ylabel('loss')
  5. plt.xlabel('epoch')
  6. plt.legend(['train', 'test'], loc='upper left')
  7. plt.show()

a.png

  1. plt.plot(history.history['acc'])
  2. plt.plot(history.history['val_acc'])
  3. plt.title('model acc')
  4. plt.ylabel('acc')
  5. plt.xlabel('epoch')
  6. plt.legend(['train', 'test'], loc='upper left')
  7. plt.show()

b.png

    从上图中可以发现,模型在训练了60轮后开始过拟合,此时训练精度达到70%,验证精度达到50%。最终训练到200轮后,训练精度达到95%。

 

测试

    最后对训练好的模型进行测试。

#单元测试,载入模型

  1. from keras.models import load_model
  2. import pickle
  3. model=load_model('speech_mfcc_model.h5')
  4. paradict={}
  5. with open('mfcc_model_para_dict.pkl', 'rb') as f:
  6. paradict=pickle.load(f)
  7. DATA_MEAN=paradict['mean']
  8. DATA_STD=paradict['std']
  9. emotionDict=paradict['emotion']
  10. edr = dict([(i, t) for t, i in emotionDict.items()])
  1. import librosa
  2. filePath=r'record1.wav'
  3. y,sr = librosa.load(filePath,sr=None)
  4. y=normalizeVoiceLen(y,VOICE_LEN)#归一化长度
  5. mfcc_data=librosa.feature.mfcc(y=y, sr=sr,n_mfcc=13,n_fft=N_FFT,hop_length=int(N_FFT/4))
  6. feature=np.mean(mfcc_data,axis=0)
  7. feature=feature.reshape((126,1))
  8. feature-=DATA_MEAN
  9. feature/=DATA_STD
  10. feature=feature.reshape((1,126,1))
  11. result=model.predict(feature)
  12. index=np.argmax(result, axis=1)[0]
  13. print(edr[index])

    由于数据集太小的原因,效果也就那样。

 

参考文献

[1]马树文.深度学习在语音情感识别中的应用与分析.信息科技探索

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/545278
推荐阅读
相关标签
  

闽ICP备14008679号