赞
踩
本文字数: 1500, 阅读完需: 8 分钟
在本次演讲中,演讲者介绍了如何使用亚马逊云科技Bedrock平台上的GuardrailsforAmazonBedrock构建负责任的生成式AI应用。他解释了生成式AI应用的主要用途,包括提高员工工作效率、改善用户体验和优化企业业务流程。演讲者强调,构建负责任的生成式AI应用需要具备公平性、可解释性、鲁棒性、隐私安全性、透明性等基本要素。他介绍了常见的安全护栏策略,如基于关键词过滤、评估指标过滤和使用第二个大模型进行过滤。最后,演讲者演示了亚马逊云科技Bedrock平台上的GuardrailsforAmazonBedrock功能,该功能可以帮助开发者构建负责任的生成式AI应用,包括禁止特定话题、内容过滤、个人信息隐藏和关键词过滤等。
以下是小编为您整理的本次演讲的精华,共1200字,阅读时间大约是6分钟。
在当今时代,生成式人工智能(AI)技术的发展如火如荼,引起了广泛关注。然而,与此同时,也存在一些风险和挑战需要我们认真对待。构建负责任的生成式AI应用成为了当务之急,这需要具备公平性、可解释性、鲁棒性、隐私安全性和透明性等基本要素。
生成式AI的应用场景主要包括提高员工工作效率、改善用户体验以及优化企业业务流程。就提高员工工作效率而言,我们可以借助生成式AI进行内容创作和编排,提升文字工作者的工作效率。比如,在准备一次重要会议时,市场部人员需要撰写大量文案,生成式AI可以帮助他们更好地编辑文字格式,从而提高效率。
在改善用户体验方面,生成式AI可以优化客服体验。我们经常在购物时遇到退货换货的情况,往往会与机器人客服进行交互。传统的机器人回复往往生硬枯燥,而通过生成式AI应用,如果输入了大量历史对话记录,它就能提供流畅自然的回复,从而提升用户体验。
此外,生成式AI也可以为各行各业优化业务流程,提高效率。以亚马逊为例,它可以利用生成式AI优化供应链流程,从采购到下单的整个环节都可以获得优化。因此,我们需要透过现象看本质,生成式AI在这些用例中都可以发挥重要作用。
然而,用户对生成式AI技术也存在一些担忧。首先,人们担心它可能侵害企业的知识产权。由于大模型在预训练时会读取海量数据,其中可能包含具有知识产权或隐私保护的数据,因此存在被诱导泄露这些信息的风险。
其次,人们担心大模型的输出结果可能出现幻觉。由于大模型基于Transformer架构,采用了Decoder Only的方式,每次只生成下一个词,就像人类一个词一个词地说话一样,在疲劳或大脑短路的情况下,可能会说出不正确的内容,产生幻觉。
基于以上担忧,我们需要认识到,生成式AI应用可能会出现不受欢迎的话题、不当内容、有毒回复、违反歧视或种族仇恨的信息,以及个人隐私数据泄露等问题。因此,我们需要在追求创新的同时,权衡风险和挑战,降低风险,应对挑战,从而构建负责任的生成式AI应用。
构建负责任的生成式AI应用需要遵循以下最佳实践:首先,明确定义应用场景,了解应用边界。例如,对于一个金融应用中的聊天助手,它不能直接向用户推荐金融产品,除非给出免责声明,仅供参考。
其次,加强员工培训,让应用开发人员了解负责任AI的理念,认识到安全是优先事项。我们公司有一句话”安全是0级任务”,与安全生产同等重要。
第三,反复测试,制定评估衡量指标,对生成式AI应用的输出进行评估和把控。
为了助力构建负责任的生成式AI应用,亚马逊推出了Bedrock平台。Bedrock是一个AI工具集,集成了30多种基础模型,这些模型具有一定的内置保护措施。比如,当你询问个人隐私数据或微软许可证密钥时,模型通常不会泄露相关信息,会指出你的行为违反了政策。
不过,尽管基础模型具备一定保护,但我们仍需要根据企业的应用场景,定义安全策略,构建Guardrails(护栏)。Guardrails功能可以根据场景配置,提供托管的安全护栏策略,包括禁止话题、内容过滤、个人信息屏蔽和关键词过滤等。
以禁止话题为例,如果你的应用是一个金融终端,用户询问是否应该买入某只股票时,系统就会直接拒绝回答此类投资建议话题,给出友好的拒绝回复。
内容过滤则是基于评估指标(metrics)的过滤策略,利用自然语言理解(NLU)模型评判输入内容是否涉及仇恨、侮辱、暴力等不当行为,并根据强度进行过滤。
个人信息屏蔽功能可以隐藏输出内容中的姓名、地址、邮箱、订单号等个人身份信息。
关键词过滤则是屏蔽输入输出中的自定义关键词,比如竞争对手的名称等。
除了这些策略,Guardrails还支持基于第二个大模型的过滤判断,以及检测并防范提示攻击(Prompt Attack),即用户通过编造故事情节来诱导大模型产生有害输出。
通过Guardrails,我们可以在Amazon Bedrock平台上便捷地创建和配置各种安全护栏,构建出负责任的生成式AI应用。
总的来说,构建负责任的生成式AI应用需要应用开发人员的共同努力。我们要相信,优秀的基础模型已经具备一定的内置保护措施。但同时,我们也需要借助Guardrails等工具,根据应用场景配置有效的安全护栏策略,从而最大限度规避风险,发挥AI的正面价值。
安全护栏策略的常见实现方式包括基于关键词过滤、基于评估指标过滤,以及基于第二个大模型的过滤判断等。在确保应用安全的同时,我们也要注重可解释性,让模型的输出逻辑更加透明。
值得一提的是,Anthropic公司的Claude系列模型在安全意识方面表现出众,因为该公司的创始人曾与OpenAI的创始人一起发表GPT论文,专注于AI安全领域。因此,Anthropic的模型自然延续了这一基因,对安全有着更高的认知和重视程度。
总之,生成式AI给我们带来了创新的同时,也孕育了新的风险和挑战。我们需要在左手追求创新的同时,用右手审慎权衡风险,通过构建负责任的AI应用,改变人机交互方式,提高工作效率,优化用户体验,并最终实现AI在各领域的负责任落地。
总计词数:2307字
下面是一些演讲现场的精彩瞬间:
在亚马逊云科技中国峰会2024上,演讲者生动形象地比喻了云计算产品的重要性,并预告将展示一个全新的云产品演示。
亚马逊云科技中国峰会2024:用户对生成式AI技术存在的担忧,如侵犯知识产权和隐私保护等问题
亚马逊云科技中国峰会2024上,演讲者阐述了大模型可能出现幻觉的风险,并强调了应用人工智能时需要认知并应对新挑战。
亚马逊云科技中国峰会2024上,演讲者强调了人工智能模型的可解释性,即模型能够提供相关引文和出处,增强透明度和可信度。
亚马逊云科技中国峰会2024演讲嘉宾强调,要实现负责任的人工智能,首先需要明确定义应用场景,才能构建负责任的生成AI应用。
亚马逊云科技中国峰会2024上,演讲者强调了内容过滤、个人信息保护和关键词过滤的重要性,以确保人工智能系统的安全和合规运行。
Anthropic Claude系列模型具有较高的安全意识和内置保护措施,源于其创始人曾参与OpenAI的GPT模型研发,专注于人工智能安全领域。
本视频主要介绍了如何构建负责任的生成式AI应用。主要内容包括:
2024年5月29日,亚马逊云科技中国峰会在上海召开。峰会期间,亚马逊全球副总裁、亚马逊云科技大中华区总裁储瑞松全面阐述了亚马逊云科技如何利用在算力、模型、以及应用层面丰富的产品和服务,成为企业构建和应用生成式 AI 的首选。此外,活动还详细介绍了亚马逊云科技秉承客户至尚的原则,通过与本地合作伙伴一起支持行业客户数字化转型和创新,提供安全、稳定、可信赖的服务,以及持续深耕本地、链接全球,助力客户在中国和全球化发展的道路上取得成功。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。