赞
踩
AI正彻底改变每一个数据驱动的机会,有可能带来一个繁荣的新时代,让人类的生活质量达到难以想象的高度。但就像任何突破性的新技术一样,伟大的潜力往往蕴含着巨大的风险。
AI在很大程度上是有史以来部署在生产系统中的最脆弱的技术。它在代码级别、训练和开发期间、部署后、网络上、生成输出等方面都很容易受到攻击。
在HiddenLayer公司最新发布的《2024年AI威胁场景报告》中,研究人员阐明了这些漏洞及其对组织的影响,并为应对这些挑战的IT安全和数据科学领导者提供了指导建议。最后,报告还揭示了各种形式的AI安全控制的前沿进展。
2002年——采用Naive Bayes算法的基于ML的垃圾邮件检测过滤器出现;
2004年——通过插入“good”字段,首次在线性垃圾邮件过滤器中使用规避技术;
2006年——第一篇概述针对ML攻击分类的论文发布;
2012年——首个针对非线性算法的梯度中毒(gradient-based poisoning)攻击;
2014年——首次展示针对深度神经网络的攻击;
2015年——OpenAI成立;
2016年——微软聊天机器人Tay中毒事件;
2017年——首次演示针对机器学习的黑盒攻击;
2018年——引入“边界攻击”(Boundary Attack,一种基于决策的对抗攻击算法)概念;
2018年——全模型提取攻击:KnockOffNets、CopycatCNN;
2019年——介绍“单像素攻击”(One Pixel attack,只需获取输入图像即可对模型进行攻击)和“攻击”(HopSkipJump,一种黑盒对抗方式,可以认为是Boundary Attack++);
2019年——新加坡制定AI治理框架模型;
2021年——首个黑盒神经有效载荷注入技术出现;
2021年——MITRE ATLAS发布;
2022年——欧盟AI法案开始制定;
2022年——首次披露针对LLM的提示注入攻击;
2022年——加拿大制定AI和数据法案(AIDA);
2022年——美国制定AI权利法案蓝图;
2022年——OpenAI推出ChatGPT;
2022年——在PyPI上发现恶意PyTorch依赖项;
2023年——NIST推出AI风险管理框架(AI RMF);
2023年——闭源模型的首个开源副本(Alpaca、OpenLLaMA)发布;
2023年——谷歌推出安全AI框架(SAIF);
2023年——PoisonGPT - LLM中毒演示;
2023年——美国白宫发布关于安全、可靠、可信地开发和使用AI的行政命令;
与任何其他改变生活的技术一样,AI是一把双刃剑。虽然它已经开始对我们的生活和工作流程产生巨大的积极影响,但它也有巨大的潜在危害。
从易于访问的暗网市场到随时可用的破解工具包,再到利用几乎无法追踪的加密货币的勒索软件即服务(RaaS),一切都在帮助网络犯罪分子茁壮成长。更糟糕的的是,生成式AI可以快速、轻松地进入一个充满复杂攻击场景的世界,同时为任何有需求的人提供精心设计的网络钓鱼和恶意软件。AI聊天机器人还可以访问可能导致人身威胁的非法信息。
虽然流行的生成式AI解决方案正在努力实现强大的过滤器和内容限制,但大多数已被证实相对容易绕过。此外,开源AI模型可以在没有任何限制的情况下进行微调。这些模型可以为攻击者专有,也可以在暗网上向更广泛的公众提供。
另一个明显的问题是创建非常真实的deepfake图像、音频和视频,用于窃取金钱、提取敏感信息、破坏个人声誉以及传播错误信息。
多年来,诈骗者一直在利用各种手段欺骗人们。Deepfake的出现将这个问题带到了一个全新的高度,即使是经验丰富的网络安全专家也很难区分真假。糟糕的是,Deepfake带来的影响不仅关乎金钱和声誉,还可能扰乱政治竞选、操纵民主选举、操纵社会、煽动动乱。如果不及时采取充分的措施,民主和社会秩序将受到严重损害。
保护隐私的指导方针总是落后于新技术的采用。通常情况下,只有在最初的激情消退后,隐私泄露的影响才会逐渐清晰。我们已经在生成式AI中看到了这一点。
例如,任何基于AI的服务条款和条件协议应该说明服务提供者如何使用我们的请求提示。然而,这些条款通常是故意用复杂语言便写的冗长文本。如果用户不想花费数小时来解读细节,那么最好假设对模型发出的每个请求都以某种方式进行了记录、存储和处理。至少,用户应该意识到自己的输入会被馈送到训练数据集,因此,可能会在其他请求的输出中意外泄露。
生成式AI解决方案背后的模型通常是在大量公开可用数据上进行训练的,其中一些数据受版权法保护。问题在于,生成式AI无法区分灵感和抄袭,它给出的结果往往过于接近于训练集中的原创内容,但却没有注明原创作者,从而可能会导致严重的版权侵犯。
AI模型的质量取决于其训练数据集。大型生成AI模型是在TB级数据上进行训练的,在大多数情况下,这些数据是不加选择地从互联网上抓取的,这使得对训练集的仔细审查变得不可能。这就会导致模型的准确性、公平性和总体完整性方面的问题,如果模型意外地在敏感数据上进行训练,还会导致数据隐私泄露的可能性。此外,在线学习的兴起,用户的输入不断被馈送回训练过程中,使得AI解决方案容易产生偏见、错误信息和故意中毒。
即使数据集包含无偏差和准确的信息,AI算法也并非总是正确的,有时可能会得出奇怪的错误结论。这些被称为“幻觉”,是当前AI技术的内在属性。根据设计,AI无法区分现实和虚构,所以如果训练数据集包含两者的混合,AI有时会用虚构来回应。
关于AI工具的安全和道德使用有很多讨论;然而,AI系统本身的安全性仍然经常被忽视。重要的是要记住,与任何其他无处不在的技术一样,基于AI的解决方案可能被攻击者滥用,导致破坏、经济损失、声誉损害,甚至对人类健康和生命构成风险。
数据中毒
数据中毒攻击的目的是修改模型的行为,以使预测有偏见,不准确,或者以其他方式被操纵以服务于攻击者的目的。攻击者可以通过两种方式执行数据中毒:修改现有数据集中的条目(例如,改变特征或标签)或向数据集中注入新的、经过特殊处理的数据部分。
即使对于没有经验的对手来说,数据中毒攻击也相对容易执行,因为创建“受污染”的输入通常可以在没有专业知识的情况下直观地完成。这种攻击每天都在发生,从操纵文本补全机制到影响产品评审,再到政治虚假信息运动。
最早被广泛宣传的数据中毒案例之一涉及微软早期的聊天机器人Tay。Tay于2016年3月在Twitter上发布,并不断接受用户输入的训练,但仅在上线16个小时后便匆匆关闭。在这么短的时间内,用户设法使机器人变得粗鲁和种族主义,并产生了有偏见和有害的输出。此事导致微软遭受了一些声誉上的损害,甚至受到了法律诉讼的威胁。
更复杂的数据中毒尝试可能会产生毁灭性的影响。更糟糕的是,预先训练的模型也不能免于中毒,因为它们可以在微调期间被操纵。在一次名为“PoisonGPT”的攻击中,攻击者通过使用一种名为“Rank-One 模型编辑”的技术,对现有的基于GPT的模型进行了修改,致使其传播攻击者控制的虚假信息。
模型逃逸
逃逸攻击,也称为模型绕过,旨在故意操纵模型输入以产生错误分类。对模型进行恶意制作的输入称为对抗性示例。它们的目的通常是逃避正确的分类或触发特定的攻击者定义的结果。它们还可以帮助攻击者了解模型的决策边界。
原始输入和经过操纵的输入之间的差异通常对人类来说是难以察觉的。例如,在视觉识别系统中,攻击者可以通过添加一层人眼看不见的噪声来修改图像,甚至可以旋转图像,或者改变单个像素。这将导致AI模型给出错误的预测。攻击者通常会向模型发送大量略有不同的输入,并记录预测,直到找到触发所需错误分类的样本。
2019年,Skylight Cyber研究人员创建了一个能够绕过基于AI的端点恶意软件分类模型,并成功绕过了多个反病毒绕过工具包(如MalwareGym和MalwareRL),其中逃逸攻击与强化学习相结合,自动生成恶意软件变异,使其对恶意软件分类模型显得无害。
这些攻击也可用于劫持自动驾驶汽车。研究人员证明,在“停止”标志上贴上特制的贴纸,可以欺骗车载车型,使其对该标志进行错误分类,从而继续行驶。同样地,想要绕过面部识别系统的攻击者可能会设计一副特殊的太阳镜,使佩戴者对系统隐形。这种攻击的可能性是无穷无尽的,其中一些可能会造成致命的后果。
模型盗窃
关于模型及其所依赖的数据集信息并非公开可见的,但用户通常可以查询模型(例如,通过GUI或API)。这足以让攻击者执行攻击并尝试复制模型或提取敏感数据。
竞争对手可能会试图窃取模型,在无需寻找正确数据集、标记特征向量和承担训练模型成本的情况下获取竞争优势。被盗的模型甚至可以在地下论坛上交易,就像机密源代码和其他知识产权一样。
2023年初,斯坦福大学研究人员对Meta的AI LLaMA模型进行了微调,并以Alpaca的名义发布,而OpenLM则发布了一个允许许可的开源LLaMA复制版本,名为OpenLLaMA。这再次证明,有了足够的API访问,克隆一个庞大且复杂的模型来创建一个非常高效的副本是可能的,省去了训练模型的麻烦。
生成式AI的兴起引发了新的伦理和安全挑战,攻击者可以采取多种手段利用生成式AI系统。
提示注入
提示注入是一种可以用来欺骗AI机器人执行意外或受限操作的技术。该技术是通过制作一个特殊的提示以绕过模型的内容过滤器来完成的。在此特殊提示之后,聊天机器人将执行原本限制的操作。
间接提示注入
在最近展示的另一种名为“间接提示注入”(IndirectPrompt Injection)的攻击中,研究人员将必应聊天机器人变成了一个骗子,以窃取敏感数据。按照设计,必应聊天可以请求访问所有打开的标签页和这些标签页上的网站内容。攻击者制作了一个包含特殊设计的提示符的恶意网站,只要该网站在受害者的浏览器中打开,并且必应可以访问标签页,该提示符就会修改必应聊天的行为。攻击者可以利用这种攻击来窃取特定的敏感信息,操纵用户下载恶意软件,或者只是误导和传播错误信息。
代码注入
在大多数情况下,GenAI模型只能生成它们设计提供的输出类型(即,文本、图像或声音)。这意味着,如果有人提示基于LLM的聊天机器人运行shell命令或扫描网络范围,聊天机器人将不会执行任何这些操作。然而,它可能会生成一个貌似合理的假性输出,表明这些操作实际上已经执行。
HiddenLayer发现某些AI模型实际上可以执行用户提供的代码。例如,Streamlit MathGPT应用程序,它可以回答用户生成的数学问题,将接收到的提示转换为Python代码,然后由模型执行以返回“计算”的结果。
当受信任的第三方供应商成为攻击的受害者时,供应链攻击就会发生。如今的机器学习供应链是一个巨大的生态系统,由不同的工具、库和服务组成。从机器学习框架到MLOps工具和模型存储库,每一个都在推动AI民主化和加速该领域的进步方面发挥着重要作用。然而,由于有如此多的活动部件和新技术需要解决,它们无意中引入了新的供应链风险,使我们容易重蹈覆辙。
研究人员认为机器学习供应链中包含以下关键风险:
攻击性安全工具已经存在很长时间了,它使红队和渗透测试人员能够评估IT系统可能存在的弱点。如今,攻击性安全的概念也进入了AI领域,AI安全研究人员开发了各种工具来测试他们的攻击技术。
对抗性ML框架
反恶意软件逃逸工具
除了强大的评估框架之外,还有针对特定结果的更专业的工具。例如,MalwareGym可以帮助绕过基于AI的反恶意软件解决方案。它于2017年由杀毒公司Endgame发布,在windows应用程序的修改中实现了强化学习。通过从良性可执行文件中获取功能并将其添加到恶意文件中,MalwareGym可以创建绕过恶意软件扫描程序的恶意软件。
模型盗窃工具
KnockOffNets是一个用于创建AI模型副本(换句话说,用于窃取模型)的工具,由Max Planck信息研究所的研究人员于2021年发布。虽然其创建是为了展示模型盗窃/模型提取的便利性,但它也可以帮助攻击者构建他们自己的模型盗窃工具。
在过去两年中,多家大型网络安全参与者创建了包括各种安全实践、策略和AI建议的综合框架。这些框架是在漫漫长路上非常有价值的第一步。
MITRE ATLAS
MITRE ATLAS于2020年首次在GitHub上发布,它是对抗性机器学习策略、技术和案例研究的知识库,旨在帮助网络安全专业人员、数据科学家及其公司了解针对对抗性机器学习的最新攻击和防御。
ATLAS矩阵分为两个主要部分:战术和技术。其中,战术描述了对手想要达到的目标;技术描述了攻击者将如何完成他们的战术。
NIST AI风险管理框架
2023年1月,美国国家标准与技术研究院(NIST)发布了AI风险管理框架(AI RMF)。这是一个概念性框架,它从传统的软件和基于信息的系统中吸取教训,并将其应用于AI系统提出的独特挑战。
该框架分为两部分:与AI系统相关的风险框架和核心框架本身。核心描述了四个功能:治理、映射、测量和管理。每个都分解为进一步的控制,以使组织更深入地了解如何保护其AI基础设施。
谷歌安全AI框架
谷歌于2023年6月推出的安全AI框架(SAIF)是一个概念框架,与NIST AI RMF一样,为保护AI系统提供指导。它建立在传统软件开发的最佳实践和经验的基础上,使其适应AI系统的需求。
OWASP top10
开放全球应用程序安全项目(OWASP)是一个非营利组织和在线社区,提供免费的指导和资源,如应用程序安全领域的文章、文档和工具。OWASP top10安全风险列表包含了各种web技术面临的最关键的安全风险,例如访问控制和加密失败。
Databricks AI安全框架(DAISF)
DAISF框架采用了一种全面的战略来减轻AI系统中的网络风险。它提供了关于机器学习如何影响系统安全性以及如何将安全工程原理应用于AI系统的见解。它还为理解特定ML系统的安全性和合规性提供了详细的指南。
IBM生成式AI安全框架
2024年1月,IBM发布了Securing Generative AI框架,重点关注LLM和其他GenAI解决方案在企业和组织中的使用。它通过帮助估计在管道的每个阶段可能发生的最可能的漏洞,并建议相关的保护和防御措施,提供了防御方法。
AI红队的第一个想法出现在2010年代末。当时,AI系统已经因其易受偏见、敌对例子和普遍滥用等因素的影响而闻名。如今,一些主要参与者(如谷歌、英伟达或)已经投资建立自己的内部团队,致力于深入测试他们开发和实施的AI解决方案。
我们已经讨论过AI是一把双刃剑:它可以很容易地用来对付人类、企业和社会,产生深远的后果,可能是毁灭性的。出于这个原因,世界各国政府纷纷对如何安全、合法、道德地使用AI制定了严格的监管。
几十年来,网络安全行业一直在与攻击者进行技术军备竞赛,因为每一次新的进步都会带来独特的安全问题,需要定制的安全解决方案。然而,AI/ML的安全性在数据科学领域一直被忽视;AI和机器学习的快速发展往往缺乏基本的安全控制。这导致了库和工具中的许多漏洞,而这些漏洞已经成为AI软件开发的支柱。我们预计这一趋势将在未来一年略有逆转,因为研究人员正在迅速发现漏洞,并帮助支持开源ML项目的防御。数据科学家和网络安全专家之间的合作将提高整个AI生态系统的安全性。
由于机器学习工具链中固有的不安全性,网络犯罪分子可以利用许多唾手可得的成果。威胁参与者越来越多地将目光转向MLOps平台和工具。随着时间的推移,供应链漏洞将变得越来越普遍,而不仅仅是为了传统的初始妥协和横向移动目的。机器学习模型及其所接触数据的敏感性使其非常易受网络罪犯的攻击。攻击者将越来越多地利用MLOps平台中的漏洞来毒害训练集,并在训练或推理时渗漏敏感数据,以获得竞争优势或滥用AI系统。
用于推断训练数据或模型细节的逆向攻击,用于生成绕过/错误分类的推理攻击,以及最终的模型盗窃攻击也将变得更加常见。推动这些攻击的重要因素是学术界和工业界不断扩大的对抗性机器学习研究。曾经异常复杂的任务,现在(并将继续)变得越来越简单,甚至脚本小子也能轻松实现。
网络犯罪分子已经在使用LLM来增强现有的攻击,从编写更真实的网络钓鱼电子邮件到动态生成独特的恶意软件有效载荷,以及改进社会工程的努力。不难想象,在未来的一年里,威胁行为者将利用LLM来自动化黑客攻击、执行侦察和补充网络犯罪即服务。
LLM领域另一个有趣的发展是RAG(检索增强生成),它通过外部信息来源或基础事实来增强模型。RAG赋能的LLM很容易被破坏者滥用,他们将利用精心设计的提示来寻求渗漏敏感信息。
在组织内开发、使用和实现AI从未像现在这般容易。这种与已建立的流程的快速集成正在引入一个不断扩展的新型攻击面,而传统的安全控制措施无法保护这种攻击面。
未来一年,企业将经历许多成长的烦恼,例如AI暴露或配置不安全,导致数据泄露、妥协甚至其他更糟的后果。
另一方面,我们也希望看到AI安全原则在组织中得到更广泛的应用,以及监测模型行为和模型安全评估的先进方法进一步普及。如此一来,更多的组织将能够识别并采取措施来应对对抗性攻击。
原文链接:
https://21998286.fs1.hubspotusercontent-na1.net/hubfs/21998286/HiddenLayer%20AI%20Threat%20Landscape%20Report%202024.pdf?__hstc=62390451.7eda7b2ca46bd6745379633b1dcc597b.1709858831913.1709858831913.1709858831913.1&__hssc=62390451.1.1709858831913&__hsfp=1395060114
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。