赞
踩
每个互联网用户和公司都应该为即将到来的强大的生成式人工智能(GenAI)应用浪潮做好准备。GenAI在各种行业的创新、效率和商业成功方面有着巨大的前景。尽管如此,就像任何强大的早期技术一样,它也带来了一系列明显而意想不到的挑战。
在过去的50年里,人工智能取得了巨大的进步,默默无闻地支持着各种企业流程,直到ChatGPT的公开亮相推动了大型语言模型(LLM)在个人和企业中的开发和使用。最初,这些技术仅限于学术研究或公司内部某些但至关重要的活动的执行,只有少数人才能看到。然而,最近在数据可用性、计算机能力、GenAI功能以及Llama 2、ElevenLabs和Midtravel等工具的发布方面取得的进展,已将人工智能从小众提升为普遍接受。这些改进不仅使GenAI技术更容易获得,而且还突出了企业在运营中集成和利用人工智能的坚实战略的迫切需要,这标志着我们在使用技术方面迈出了巨大的一步。
各组织正在进入保护和监督GenAI解决方案的未知领域。GenAI的快速发展也为对手加强攻击策略打开了大门,带来了防御和威胁升级的双重挑战。
但是,本文档的主要关注点是大型语言模型应用程序及其在创建生成内容中的功能。
OWASP LLM应用程序网络安全和治理十大清单适用于高管、技术、网络安全、隐私、合规和法律领域的领导者、DevSecOps、MLSecOps以及网络安全团队和捍卫者。它适用于那些努力在快速发展的人工智能世界中保持领先地位的人,其目的不仅是利用人工智能取得企业成功,还旨在防范仓促或不安全的人工智能实施风险。这些领导者和团队必须制定策略来抓住机会、应对挑战和降低风险。
此清单旨在帮助这些技术和业务领导者快速了解使用LLM的风险和好处,使他们能够在制定大型语言模型战略时,专注于制定一份全面的关键领域和任务清单,以保护和保护组织。
LLM应用程序团队的OWASP前十名希望这份名单将帮助组织改进现有的防御技术,并开发技术来应对使用这项令人兴奋的技术带来的新威胁。
用于制定策略的检查表提高了准确性,定义了目标,保持了一致性,并促进了重点细致的工作,减少了疏忽和遗漏的细节。遵循检查清单不仅可以增加对安全收养之旅的信任,还可以通过提供一个简单有效的持续改进战略来鼓励未来组织的创新。
尽管本文档旨在支持组织在快速变化的技术、法律和监管环境中制定初始LLM战略,但它并不是详尽无遗的,也没有涵盖每个用例或义务。在使用本文件时,组织应根据其用例或管辖权的要求,将评估和实践扩展到所提供清单的范围之外。
大型语言模型面临着几个严重而独特的问题。其中最重要的一点是,在使用LLM时,控制平面和数据平面不能严格隔离或分离。另一个重大挑战是LLM在设计上是不确定性的,在提示或请求时会产生不同的结果。两者之间的关键区别在于,模型的算法优先考虑其响应中的项。这与消费者以前使用技术的方式有很大不同,并对研究结果的一致性和可靠性产生了影响。这种方法的结果是从模型训练数据中的差距和训练缺陷中产生幻觉。
有一些方法可以提高可靠性,减少越狱、模型欺骗和幻觉的攻击面,但在成本和功能方面,限制和实用性之间存在权衡。
LLM的使用和LLM应用程序增加了组织的攻击面。一些相关风险
LLM是独特的,但许多都是常见的问题,如已知的软件材料清单(SBOM)、供应链、数据丢失保护(DLP)和授权访问。与GenAI没有直接关系的风险也在增加,但GenAI提高了攻击和威胁组织的攻击者的效率、能力和有效性。
攻击者越来越多地利用LLM和Generative AI工具来改进和加快攻击组织、个人和政府系统的传统方法。LLM促进了他们增强技术的能力,使他们能够毫不费力地制造新的恶意软件,这些恶意软件可能嵌入新的零日漏洞或旨在逃避检测。它们还可以生成复杂、独特或量身定制的网络钓鱼方案。无论是视频还是音频,令人信服的深度造假的创造进一步推动了他们的社会工程策略。未来,犯罪行为体对人工智能技术的更多“量身定制”和复合使用将需要针对组织的适当防御和恢复能力做出具体回应和专门解决方案。
组织还面临着不利用LLM能力的威胁,例如竞争劣势、客户和合作伙伴对过时的市场认知、无法扩展个性化通信、创新停滞、运营效率低下、流程中人为错误的风险更高以及人力资源分配效率低。
了解不同类型的威胁并将其与业务战略相集成,将有助于权衡使用大型语言模型(LLM)与不使用它们的利弊,确保它们加速而不是阻碍业务实现业务目标。
图1.2:描述人工智能威胁类型的图像
整个组织的员工都受益于了解人工智能、生成性人工智能以及构建、购买或使用LLM的未来潜在后果的培训。允许使用和安全意识的培训应针对所有员工,并更专业地从事某些职位,如人力资源、法律、开发人员、数据团队和安全团队。
公平使用政策和健康互动是关键方面,如果从一开始就纳入这些方面,将成为未来人工智能网络安全宣传活动成功的基石。这必然会为用户提供互动基本规则的知识,以及将良好行为与不良或不道德行为区分开来的能力。
尽管人工智能和生成的人工智能为网络安全、恢复力、隐私以及满足法律和监管要求增加了一个新的维度,但长期以来的最佳实践仍然是识别问题、发现漏洞、修复漏洞和缓解潜在安全问题的最佳方式。
LLM功能引入了不同类型的攻击和攻击面。LLM易受复杂业务逻辑错误的影响,如提示注入、不安全的注入设计和远程代码执行。现有的最佳实践是解决这些问题的最佳方式。了解安全软件审查、体系结构、数据治理和第三方评估的内部产品安全团队网络安全团队还应检查当前控制的力度,以发现LLM可能会使问题变得更糟的问题,如语音克隆、模拟或绕过captchas。鉴于机器学习、NLP(自然语言处理)、NLU(自然语言理解)、深度学习以及最近的LLM(大型语言模型)和Generative AI的最新进展,建议将精通这些领域的专业人员与网络安全和Devops团队一起纳入。他们的专业知识不仅有助于采用这些技术,而且有助于开发创新分析和应对新出现的挑战。
风险参考使用ISO 31000定义:风险=“不确定性对目标的影响”。检查表中包括的LLM风险包括一份针对性的LLM的风险清单,其中涉及对抗性、安全性、法律、监管、声誉、财务和竞争风险。
目前用于对漏洞进行分类和共享威胁信息的系统,如OVAL、STIX、CVE和CWE,仍在开发监测和提醒防御者注意大型语言模型(LLM)和预测模型特有的漏洞和威胁的能力。当发现AI/ML系统及其供应链的漏洞或威胁时,预计各组织将依靠这些既定和公认的标准,如漏洞分类的CVE和网络威胁情报交换的STIX。
大型语言模型(LLM)应用程序的快速扩展提高了对业务运营中使用的所有人工智能/机器学习系统的关注和检查,包括生成人工智能和长期建立的预测人工智能/机械学习系统。这种日益集中的关注暴露了潜在的风险,例如攻击者针对以前被忽视的系统,以及在法律、隐私、责任或保修问题上可能被忽视的治理或法律挑战。对于任何在运营中利用AI/ML系统的组织来说,评估和建立全面的政策、治理、安全协议、隐私措施和问责标准至关重要,以确保这些技术与业务流程安全、合乎道德地保持一致。
攻击者或对手对企业、人民和政府机构构成了最直接、最有害的威胁。他们的目标从经济利益到间谍活动,迫使他们窃取关键信息,扰乱运营,损害信心。此外,他们利用人工智能和机器学习等新技术的能力提高了攻击的速度和复杂性,使防御很难领先于攻击。
对许多组织来说,最紧迫的非对手LLM威胁源于“影子人工智能”:员工使用未经批准的在线人工智能工具、不安全的浏览器插件,以及通过更新或升级引入LLM功能的第三方应用程序,绕过标准软件审批流程。
图2.1:部署策略选项的图像
范围从利用公共消费者应用程序到对私有数据的专有模型进行培训。用例敏感性、所需功能和可用资源等因素有助于确定方便性与控制性之间的正确平衡。然而,理解这五种模型类型为评估选项提供了一个框架。
图2.2:部署类型的选项图像
对抗性风险包括竞争对手和攻击者。
强烈建议使用威胁建模来识别威胁并检查流程和安全防御。威胁建模是一组系统的、可重复的过程,能够为应用程序、软件和系统做出合理的安全决策。针对GenAI加速攻击和部署LLM之前的威胁建模是识别和减轻风险、保护数据、保护隐私以及确保业务内安全、合规集成的最具成本效益的方法。
攻击者将如何加速针对组织、员工、高管或用户的攻击?组织应该使用Generative AI来预测大规模的“超个性化”攻击。LLM辅助的矛式网络钓鱼攻击现在比攻击更有效、更有针对性和武器化。
GenAI如何通过欺骗或GenAI生成的内容来攻击企业的客户或客户?
企业能否检测并消除对LLM解决方案的有害或恶意输入或查询?
企业是否有内部威胁缓解措施,以防止授权用户滥用?
企业能否通过自动内容过滤来防止有害或不适当内容的生成?
人工智能资产清单应适用于内部开发和外部或第三方解决方案。
将人工智能组件包括在软件材料清单(SBOM)中,这是一个与应用程序相关的所有软件组件、依赖项和元数据的综合列表。
按照SBOM的要求,确保内部或外部都有熟练的IT管理人员。
坚实的商业案例对于确定任何拟议的人工智能解决方案的商业价值、平衡风险和收益以及评估和测试投资回报至关重要。有大量的潜在用例;提供了几个例子。
LLM中的公司治理需要为组织提供透明度和问责制。识别可能熟悉该技术或业务所选用例的人工智能平台或流程所有者不仅是建议的,而且也是必要的,以确保足够的反应速度,防止对成熟的企业数字流程造成附带损害。
人工智能的许多法律含义都是不明确的,而且可能代价高昂。IT、安全和法律合作伙伴关系对于发现差距和解决模糊决策至关重要。
在可能存在可执行权利问题或存在知识产权侵权问题的情况下,限制或禁止员工或承包商使用生成人工智能工具。
《欧盟人工智能法案》预计将是第一部全面的人工智能法律,但最早将于2025年适用。《欧盟通用数据保护条例》(GDPR)没有专门针对人工智能,但包括数据收集、数据安全、公平和透明、准确性和可靠性以及问责制的规则,这些规则可能会影响GenAI的使用。在美国,人工智能监管被纳入更广泛的消费者隐私法。美国已有10个州通过了法律或法律将于2023年底生效。
美国平等就业机会委员会(EEOC)、消费者金融保护局(CFPB)、联邦贸易委员会(FTC)和美国司法部民权司(DOJ)等联邦组织正在密切监测招聘公平性。
在招聘过程中询问并记录任何使用人工智能的产品。询问该模型是如何训练的,以及如何对其进行监控,并跟踪为避免歧视和偏见而做出的任何更正。
与AI一起审查可能引发合规问题的其他组织特定监管要求。例如,1974年的《雇员退休收入保障法》对退休计划有信托义务要求,而聊天机器人可能无法满足这些要求。
在生产发布过程中包括应用程序测试、源代码审查、漏洞评估和与红队合作。
NIST人工智能框架建议在整个人工智能生命周期中采用连续的TEVV流程,包括人工智能系统操作员、领域专家、人工智能设计师、用户、产品开发人员、评估人员和审计员。TEVV包括一系列任务,如系统验证、集成、测试、重新校准和持续监测定期更新,以应对人工智能系统的风险和变化。
在整个人工智能模型生命周期中建立持续的测试、评估、验证和验证。
定期提供人工智能模型功能、安全性、可靠性和稳健性的执行指标和更新。
模型卡通过提供有关人工智能系统设计、功能和约束的标准化文档,帮助用户理解和信任人工智能系统,使他们能够制作出有教育意义和安全的应用程序。风险卡通过公开解决潜在的负面后果(如偏见、隐私问题和安全漏洞)来补充这一点,从而鼓励采取积极主动的方法来预防伤害。这些文件对开发者、用户、监管机构和伦理学家同样至关重要,因为它们建立了一种合作氛围,在这种氛围中,人工智能的社会影响得到了认真的解决和处理。这些卡片由创建模型的组织开发和维护,在确保人工智能技术符合道德标准和法律要求方面发挥着重要作用,从而在人工智能生态系统中进行负责任的研究和部署。
模型卡包括与ML模型相关的关键属性:
微调是优化预训练模型的传统方法,它涉及对新的、特定于领域的数据重新训练现有模型,并根据任务或应用程序的性能对其进行修改。微调成本高昂,但对提高性能至关重要。
检索增强生成(RAG)已经发展成为一种更有效的方式,通过从最新的可用知识源中检索相关数据来优化和增强大型语言模型的能力。RAG可以针对特定领域进行定制,优化特定领域信息的检索,并根据专业领域的细微差别调整生成过程。RAG被视为LLM优化的一种更有效、更透明的方法,特别是对于标记数据收集有限或昂贵的问题。RAG的主要优势之一是支持持续学习,因为新信息可以在检索阶段不断更新。
RAG实现涉及几个关键步骤,从嵌入模型部署、对知识库进行索引,到检索最相关的文档以进行查询处理。基于矢量数据库对相关上下文进行有效检索,矢量数据库用于存储和查询文档嵌入。
RAG参考
AI Red Teaming是对AI系统的对抗性攻击测试模拟,以验证不存在任何可被攻击者利用的现有漏洞。这是包括拜登政府在内的许多监管和人工智能管理机构建议的做法。单独的红队并不是验证与人工智能系统相关的所有现实世界危害的全面解决方案,应该包括在其他形式的测试、评估、验证和验证中,如算法影响评估和外部审计。
将红队测试纳入人工智能模型和应用程序的标准实践。
OWASP十个大型语言模型应用程序可视化
图4.2:OWASP大型语言模型应用程序前10名的可视化图像
OWASP资源使用LLM解决方案扩展了组织的攻击面,并提出了新的挑战,需要特殊的战术和防御。它还带来了与已知问题类似的问题,并且已经制定了网络安全程序和缓解措施。将LLM网络安全与组织既定的网络安全控制、流程和程序相结合,可以使组织减少其受到威胁的脆弱性。OWASP集成标准提供了它们如何相互集成。
OWASP资源 | 描述 | 推荐理由和地点 使用它 |
软件保证成熟度模型 | 提供有效的和分析和改进组织安全开发生命周期的可衡量的方法。SAMM支持整个软件生命周期。它具有互动性和风险驱动性,使组织能够识别安全软件开发中的差距并确定其优先级,以便将改进流程的资源专门用于对改进影响最大的地方。 | |
具有的OWASP项目目标是连接全球,就人工智能安全进行交流,促进标准一致性,并推动合作。 | OWASP人工智能安全与隐私指南全面列出了最重要的人工智能安全和隐私考虑因素。它旨在成为开发者、安全研究人员和安全顾问验证人工智能系统安全性和隐私性的综合资源。 | |
OWASP AI Exchange OWASP AI安全和隐私指南的获取方法。 | 人工智能交易所是主要的OWASP采用的进入方式驱动了OWASP AI安全与隐私指南的方向。 |
OWASP资源 | 描述 | 推荐理由和地点使用它 |
OWASP机器学习安全机器学习系统的10大安全问题。 | OWASP机器学习安全十大”是一项由社区驱动的努力,旨在以安全专家和数据科学家都易于理解的格式收集和呈现机器学习系统中最重要的安全问题。该项目包括ML Top 10,是一份实时工作文件,为设计、创建、测试和采购安全和隐私保护的人工智能系统提供了清晰且可操作的见解。它是人工智能全球监管和隐私信息的最佳OWASP资源。 | |
OpenCRE (通用 Requirement Enumeration)是一个交互式内容链接平台,用于将安全标准和指南统一为一个概述。 | 使用此网站搜索标准。您可以按标准名称或控件类型进行搜索。 | |
结构化的、正式的 | 了解有关Threat的所有信息 | |
OWASP CycloneDX 是一个全栈物料清单(BOM)标准,为降低网络风险提供先进的供应链能力。 | 组装了现代软件使用第三方和开源组件。它们以复杂而独特的方式粘合在一起,并与原始代码集成,以实现所需的功能。SBOM提供了所有组件的准确清单,使组织能够识别风险,提高透明度,并实现快速的影响分析。EO 14028规定了联邦系统SBOM的最低要求。 |
|
MITRE资源LLM威胁频率的增加强调了弹性优先方法在防御组织攻击面方面的价值。现有TTPS与LLM对抗威胁和缓解中的新攻击面和能力相结合。MITRE保持着一个完善且被广泛接受的机制,用于根据真实世界的观察来协调对手的战术和程序。
组织的LLM安全策略与MITRE ATT&CK和MITRE ATLAS的协调和映射使组织能够确定当前流程(如API安全标准)涵盖的LLM安全或存在的安全漏洞。
MITRE ATT&CK(对抗性战术、技术和常识)是由MITRE公司制作的一个框架、数据矩阵集合和评估工具,旨在帮助组织了解其网络安全在整个数字攻击面上的工作情况,并发现以前从未发现的漏洞。它是一个全世界都在使用的知识库。MITRE ATT&CK矩阵包含对手为实现特定目标而使用的策略集合。在ATT&CK矩阵中,这些目标被归类为战术。目标按攻击顺序概述,从侦察开始,一直到最终的渗透或影响目标。
MITRE ATLAS代表“人工智能系统的对抗性威胁景观”,是一个基于不良行为者攻击机器学习(ML)系统的真实例子的知识库。ATLAS基于MITRE ATT&CK体系结构,其战术和程序与ATT&CK中的战术和程序相辅相成。
MITRE资源 | 描述 | 推荐理由和地点使用它 |
的知识库基于真实世界观察的敌方战术和技术 | ATT&CK知识库被用作开发特定威胁模型和方法的基础。将组织内的现有控制映射到对手的战术和技术,以确定需要测试的差距或领域。 | |
创建或扩展ATT&CK本地知识库中的数据 | 托管和管理自定义的ATT&CK知识库的副本。 |
MITRE资源 | 描述 | 推荐理由和地点使用它 |
密特里拉斯(对抗性威胁 LandscapeforArtificialIntelligenceSystems)是机器学习(ML)系统的一个基于真实世界观察、ML红队和安全小组的演示以及学术研究的可能状态的反策略、 技术和案例研究的知识库 | 使用它映射已知ML漏洞以及拟议项目或现有系统的地图检查和控制。 | |
ATT&CK动力套装浏览器扩展,将MITRE ATT&CK知识库放在您的指尖。 | 添加到浏览器以快速在不中断工作流程的情况下搜索策略、技术等。 | |
自动化-TPCTI报告中的标识 | CTI报告中发现的TTP映射到MITRE ATT&CK是困难的,容易出错,而且耗时。TRAM使用LLM对50种最常见的技术实现这一过程的自动化。支持Juypter笔记本电脑。 | |
攻击流是用于描述网络对手如何组合和排列各种复杂技术以实现其目标的语言。 | 攻击流有助于可视化攻击者使用一种技术,这样防御者和领导者就可以了解对手是如何运作的,并改进自己的防御态势。 | |
网络安全平台(框架)旨在轻松实现对手模拟自动化,协助手动红队,并自动化事件响应。 | 插件可用于Caldera | |
为开发的插件人工智能系统的对手仿真。 | 此插件提供定义的TTP在MITRE ATLAS中与CALDERA接口。 |
|
AI漏洞存储库
|
表4.3:工智能漏洞存储库
AI采购指南
表4.4:AI采购指南团队
感谢OWASP LLM应用程序前十名网络安全和治理清单贡献者。
清单贡献者 | ||
Sandy Dunn | Heather Linn | John Sotiropoulos |
Steve Wilson | Fabrizio Cilli | Aubrey King |
Bob Simonoff | David Rowe | |
Emmanual Guilherme Junior | Andrea Succi | Jason Ross |
Talesh Seeparsan | Anthony Glynn | Julie Tao |
表A.1:OWASP LLM人工智能安全与治理检查表团队
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。