当前位置:   article > 正文

关于Microsoft Speech SDK 中TTS的研究_microsoft/speecht5_tts

microsoft/speecht5_tts
 

关于Microsoft Speech SDK TTS的研究

 

 

【摘要】本文介绍了利用Microsoft Speech SDK 5.1中的text-to-speechTTS),采用C#作为开发语言,Visual Studio 2005作为开发工具,实现了普通中英文混合文本的朗读,和带XML标记的文本的朗读,并且可将朗读出来的内容保存为文件。

 

【关键字】Speech SDKTTStext-to-speech,朗读

 

1.   TTS概述

 

随着语音技术的发展,微软也推出了相应的语音开发工具,即Microsoft Speech SDK,这个SDK中包含了语音应用设计接口(SAPI)、微软的连续语音识别引擎(MCSR)以及微软的语音合成(TTS)引擎等等。它其中的TTStext-to-speech)引擎可以用于实现语音合成,我们通过TTS引擎可以分析文本内容并且将其朗读出。实现TTS技术的方法有很多种,现在主要采用三种:连词技术、语音合成技术、子字连接技术。目前的5.1版本的SDK一共可以支持3种语言的识别 (英语,汉语和日语)以及2种语言的合成(英语和汉语)。其中还包括对于低层控制和高度适应性的直接语音管理、训练向导、事件、语法编译、资源、语音识别(SR)管理以及TTS管理等强大的设计接口。

 

 

2.   实现原理

 

     下是SpeechAPI的总体结构:

      

       从图中我们可以看出语音引擎则通过DDI层(设备驱动接口)和SAPI(SpeechAPI)进行交互,应用程序通过API层和SAPI通信。通过使用这些API,用户可以快速开发在语音识别或语音合成方面应用程序。

     应用程序使用ISpVoice接口来控制TTS,通过调用其中的Speak方法可以朗读出文本内容,通过调用SetVoice / GetVoice方法(在.NET中已经转变成Voice属性)来获取或设置朗读的语音,而通过调用GetVolume / SetVolumeGetRate / SetRate等方法(在.NET中已经转变成VolumeRate属性)来获取或设置朗读的音量和语速。

功能强大之处在于TTS能识别XML标记,通过给文本加上XML标记,我们让TTS朗读出更加符合语言阅读习惯的句子。例如:

l   <volume level=” 60” ></volume> 用于设置文本朗读的音量;

l   <rate absspeed=” 1” /><rate speed=” 5” /> 分别用于设置文本朗读的绝对速度和相对速度;

l   <pitch absmiddle=” 2” /><pitch middle=” 5” /> 分别用于设置文本朗读的绝对语调和相对语调;

l   <emph></emph> 在他们之间的句子被视为强调;

l   <spell></spell> 可以将单词逐个字母的拼写出来;

l   <silence msec=” 500” /> 表示停止发声,并保持500微秒;

l   <context id=”date_mdy”> 02/03/07 </context> 可以按要求朗读出日期

l   <voice required="Language=409"></voice> 用于设置朗读所用的语言,其中409表示使用英语,804表示使用汉语,而411表示日语。

 

 

3.   软件的开发

 

3.1.  开发环境的搭建

 

由于Microsoft Speech SDK是以COM组件的形式提供给我们的,因此在使用.NET开发时必须引入Interop.SpeechLib.dll文件,如图:

在引入DLL文件后,我们就可以通过添加using SpeechLib;”引入命名空间,或直接使用SpeechLib前缀来使用SpeechLib空间下的所有类。

 

3.2.    二次封装TTS

 

我们将使用Singleton设计模式来对TTS进行封装,首先声明一个SpVoice接口,并用SpVoiceClass 对象来实例化,这个接口是实现文本朗读的核心。接着提供用于朗读文本的方法,例如:

   /// <summary>

        /// 读出Xml文件内容

        /// </summary>

        /// <param name="xml">Xml文件内容</param>

        public void SpeakXml(string xml)

        {

            voice.Speak(xml, SpeechVoiceSpeakFlags.SVSFIsXML | SpeechVoiceSpeakFlags.SVSFlagsAsync);

        }

并且使Pause()Resume()Stop()等方法来控制朗读暂停、继续和停止。至于保存音频文件,我们可以使用以下方法,将音频输出流指向一个文件流,来完成保存工作。

        /// <summary>

        /// 保存音频到文件

        /// </summary>

        /// <param name="xml">要读的Xml格式的内容</param>

        /// <param name="fileName">要保存的文件名</param>

        public void Save(string xml, string fileName)

        {

            SpFileStream stream = new SpFileStream();

            stream.Open(fileName, SpeechStreamFileMode.SSFMCreateForWrite, false);

            voice.AudioOutputStream = stream;

            voice.Speak(xml, SpeechVoiceSpeakFlags.SVSFlagsAsync | SpeechVoiceSpeakFlags.SVSFIsXML);

            voice.WaitUntilDone(Timeout.Infinite);

            stream.Close();

        }

 

 

3.3.  实现中英文的混合朗读

 

如果我们直接调用SpVoice接口中Speak方法来朗读文本,那么在朗读过程中,要么使用英文朗读引擎,要么使用中文朗读引擎,这样就只能朗读纯英文文本或纯中文文本。要怎样才能朗读混合的文本呢?第一种方法,我们可以在朗读过程中,根据文本的内容来切换朗读所用的引擎,即调用SetChinaVoice()SetEnglishVoice()方法。第二种方法,我们在朗读文本之前,先分析文本,将属于英文的句子加上英文语音XML标记,即<voice required=”Language= 409” ></voice>,将属于中文的句子加上中文语音XML记,即<voice required=”Language= 804” ></voice>。这样调用SpeakXml方法就可以实现中英文混合朗读。

在这里我选择第二种方法,在类中增加静态方法:AddXmlLangTag,返回添加过标记得文本内容。

/// <summary>

        /// 设置中文语音

        /// </summary>

        public void SetChinaVoice()

        {

            voice.Voice = voice.GetVoices(string.Empty, string.Empty).Item(0);

        }

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/366024
推荐阅读
相关标签
  

闽ICP备14008679号