当前位置:   article > 正文

对语言模型的通用声学攻击

对语言模型的通用声学攻击

     对语言模型的通用声学攻击主要涉及到通过生成对抗性扰动来干扰或欺骗语音识别系统。这种攻击可以通过多种方式实现,包括但不限于基于深度学习的方法和特定的攻击策略。

    通用音频对抗性扰动生成器(UAPG)是一种有效的工具,它能够在任意良性音频输入上强加对抗性扰动,从而导致错误分类。这种方法的优势在于其高效性,实验表明它比最先进的音频对抗攻击方法实现了高达167倍的加速。

    此外,对于语音识别系统,攻击者可以利用已知的攻击方法,如Wav-to-API(WTA)攻击和Wav-air-API(WAA)攻击,这些攻击通过网络或无线方式进行。这些攻击通常针对语音识别系统中的声学模型和语言模型,试图通过修改输入数据来误导系统的输出。

1、通用音频对抗性扰动生成器(UAPG)的具体工作原理和实现方式

1.1 基于IG的声纹通用对抗扰动生成方法

    该方法通过贪婪迭代方法来解决声学普遍对抗性扰动的优化问题,并设计新的目标函数,以确保攻击在最小化对抗性扰动的可感知性和提高成功攻击的准确性方面具有更高的准确性。研究结果表明,即使音频训练数据样本量最小(即每个类别一个),IG-UAP方法产生的声学通用性对抗性扰动也能获得有效的攻击结果。此外,人耳很难察觉原始数据信息的丢失和对抗性扰动的增加(对于目标攻击的情况,小样本数据集的ASR值范围为82.4%到90.2%)。

关键步骤如下:

  • 计算梯度:对于给定的声纹识别模型,需要计算其对于输入声纹特征的梯度。梯度表示了模型输出对于输入特征的变化率,可以用来指导生成对抗样本。计算梯度的过程可以使用反向传播算法,从模型的输出层开始,逐层计算梯度,直到输入层。
  • 生成对抗扰动:在得到模型梯度后,可以使用这些梯度来生成对抗扰动。对抗扰动的目标是使得原始声纹信号在添加扰动后,能够欺骗声纹识别模型,使其做出错误的判断。为了实现这个目标,可以采用如下策略:

a. 首先,将原始声纹信号作为输入,计算其在模型中的嵌入向量(即模型在最后一层全连接层之前的输出)。

b. 然后,根据模型梯度和嵌入向量,计算对抗扰动的方向。这个方向应该使得添加扰动后的声纹信号在嵌入空间中尽可能接近目标声纹的嵌入向量。

c. 最后,根据计算出的对抗扰动方向和扰动强度,生成对抗扰动。将这个扰动添加到原始声纹信号中,即可得到对抗样本。

1.2 基于生成对抗网络的音频目标分类对抗

利用GAN生成对抗样本以攻击音频分类模型的方法。在GAN中,生成器(Generator)和判别器(Discriminator)通过相互对抗的方式不断优化,最终生成器能够生成逼真的样本,而判别器能够准确判断样本的真实性。

关键步骤如下:

  • 训练目标模型:使用音频数据库训练目标模型,使其能够对音频样本进行准确分类。
  • 构建生成对抗网络:构建一个生成器和一个判别器。生成器的输入是一个噪声向量和一个目标标签,输出是对抗样本;判别器的输入是真实样本或生成的对抗样本,输出是样本的真实性判断。
  • 训练生成对抗网络:交替训练生成器和判别器。生成器的目标是生成能够欺骗目标模型的对抗样本,而判别器的目标是能够准确判断样本的真实性。通过不断优化生成器和判别器,最终生成器能够生成逼真的对抗样本。

​​​​​​​1.3 基于GAN的高效低感知环境声音分类对抗方法

在该方法中,GAN被实现以真实信号幅度谱作为输入来生成幅度谱扰动,并且对抗性幅度谱作为真实信号幅度谱和扰动的叠加而获得。此外,采用短时处理方案灵活调整生成器的输入长度,以平衡计算复杂度和攻击性能。通过对抗性训练,StS-GAN学习生成具有与真实信号相似的时谱特征的对抗性示例。习得的扰动往往具有较小的能量,使得它们不那么显着,并且难以被人类感知区分。

  • 生成对抗网络(GAN):接下来,构建一个生成对抗网络,包括生成器(Generator)和判别器(Discriminator)。生成器的任务是生成对抗性扰动,而判别器的任务是区分生成的对抗样本和真实的音频样本。
  • 训练生成器:生成器的输入是一个噪声向量和一个目标标签,输出是对抗性扰动。在训练过程中,生成器的目标是生成能够误导分类模型的扰动,同时这些扰动对人类的听觉感知影响很小。
  • 训练判别器:判别器的输入是原始音频样本加上生成器生成的扰动,或者是真实的音频样本。判别器的目标是能够准确判断输入的样本是真实的还是经过扰动的。
  • 交替优化:通过交替优化生成器和判别器,GAN能够学习到如何生成逼真的对抗性扰动。生成器试图生成能够欺骗判别器的扰动,而判别器试图更好地区分真实样本和对抗样本。
  • 生成对抗样本:一旦GAN训练完成,使用生成器生成对抗性扰动。将这些扰动添加到原始音频样本中,生成对抗样本。

1.4 ​​​​​​​基于自注意力机制的音频对抗样本生成方法

    在典型的音频对抗样本生成算法FoolHD模型的基础上引入了自注意力机制来改进对抗样本生成,该方法称为FoolHD⁃MHSA。首先,使用卷积神经网络作为编码器来提取输入音频频谱的对抗扰动谱图;然后利用自注意力机制从全局角度提取扰动谱不同部分特征的关联特征,同时将网络聚焦到扰动谱中的关键信息、抑制无用信息

  • 自注意力机制:自注意力机制是一种机制,它可以帮助模型捕捉序列中的长距离依赖关系。在自注意力机制中,模型会为序列中的每个元素分配一个权重,这些权重表示序列中其他元素对该元素的影响程度。
  • 生成对抗样本:基于自注意力机制的音频对抗样本生成方法利用自注意力机制来生成对抗样本。具体来说,生成器会生成一个扰动序列,然后将这个扰动序列与原始音频序列进行拼接,生成对抗样本。
  • 训练生成器:在训练过程中,生成器的目标是生成能够误导音频分类模型的对抗样本。生成器会通过优化损失函数来学习如何生成对抗样本。损失函数通常包括两个部分:一个是音频分类模型的损失,另一个是扰动序列的损失。
  • 评估对抗样本:将生成的对抗样本输入到音频分类模型中,评估模型的性能。如果模型无法正确分类对抗样本,说明生成的对抗样本是有效的。

2、针对通用声学攻击,未来研究的方向和潜在的技术突破

深度学习模型的优化与改进:目前已有研究通过训练深度学习模型来分析键盘击键声音以窃取数据,准确率高达92% 。未来的研究可以进一步优化这些模型的准确性和效率,例如通过增强模型的特征提取能力或使用更先进的网络结构。

对抗样本攻击的防御机制:已有研究表明,基于深度学习的声学系统对对抗样本的攻击具有脆弱性 。因此,开发新的防御机制,如基于生成对抗网络(GAN)的方法,可以帮助提高系统对恶意输入的抵抗力。

超声波声学攻击的防御:美国国防高级研究计划局(DARPA)正在开发新方法来识别和防御超声波声学攻击,这种攻击可以远程访问智能设备。研究人员希望利用最新的研究成果来开发有效的防御工具。

语音对抗攻击与防御技术的发展:语音对抗样本攻击包括无目标攻击和有目标攻击,以及白盒攻击和黑盒攻击等多种形式 。未来的研究需要在这方面进行更深入的探索,以便更好地理解和防御这些攻击。

声音克隆技术的安全风险:声音克隆技术虽然为用户带来了新奇体验,但也存在安全风险,如被用于诈骗 。因此,研究如何防止这种技术被滥用是未来的一个重要方向。

通用声学对抗攻击的研究:已有研究提出了针对语音基础模型的通用声学对抗攻击。未来的研究可以进一步探索这种攻击的具体实施方式及其防御策略。

3、评估音频分类模型的安全性可用资源​​​​​​​

ART (Adversarial Robustness Toolbox): 一个Python库,用于评估和增强机器学习模型的鲁棒性。它支持多种数据类型,包括音频,并提供了一系列对抗性攻击和防御技术。文档详见:https://github.com/Trusted-AI/adversarial-robustness-toolbox

librosa : 一个用于音频分析和处理的Python库。它可以用于预处理音频数据,提取特征,以及生成对抗样本。 librosa 是基于 numpy和 scipy的,因此它可以与这些库无缝集成,并且可以与其他数据处理和机器学习库(如pandas、scikit-learn、tensorflow 和 pytorch)一起使用。安装与使用文档见: https://librosa.github.io/librosa/install.html

Adversarial Audio Toolbox (AAT): 开源工具箱,专门用于生成和评估音频对抗样本。它提供了多种攻击和防御策略,以及用于音频处理和特征提取的工具。

TensorFlow Audio Adversarial Examples (TF-AAE): 基于TensorFlow的开源项目,用于生成音频对抗样本。它包含了一些流行的攻击方法,如FGSM(Fast Gradient Sign Method)、PGD(Projected Gradient Descent)等。

DeepRobust: 基于PyTorch的开源库,提供了多种对抗性攻击和防御方法,适用于图像、音频和文本数据。

AudioAdversarial_examples: 包含了一些音频对抗样本的示例,以及生成这些样本的代码。这些示例可以帮助研究人员了解不同类型的音频对抗性攻击。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/605767
推荐阅读
相关标签
  

闽ICP备14008679号