赞
踩
此文背景说明:某客户基于大模型构建了知识及智能问答系统工具,需要在运维领域结合使用场景进行应用,为此,从头到尾声梳理了一遍大模型在运维领域构建知识及智能问答平台的应用场景、技术实现,总结出来供同业一同探索。 提升运维效率对于任何组织都至关重要。在追求高效运维的过程中,建立一个高效的知识共享平台是一个关键的步骤。平台为团队成员提供一个集中的地方,共享他们的经验、解决方案和最佳实践。通过知识共享,团队可以更快地解决问题,提高整体效率。 本文将探讨如何基于大模型构建这样一个高效的知识收集、知识在不同的运维场景中无缝集成和使用的平台。我们将深入了解大模型技术的应用,以及如何利用大模型相关技术来自动化知识的整理、归类和提取。 通过阅读本文,您将获得一份基于运维领域的轻量级的知识及问答系统的解决方案。让我们一起探索如何提升运维效率,构建一个优秀的知识及知识问答平台,为组织数字化转型的成功铺平道路。
以下是本文主要章节内容 :
运维效率的提升很大一部分,在于不同角色的运维人员在不同的场景(故障处置、IT服务工作台、应急分析及处置等)中对知识的快速应用,其对提升运维效率非常重要,同时也面临很多挑战。
由于最近一年来大模型的智能化能力在知识及智能问答领域的突飞猛进,使得之前力不从心的知识及自动问答系统有了更好的技术手段可以满足人们对其的应用需求。
知识库系统和智能问答平台系统在运维领域,一定要同运维场景深度结合,才能发挥其最大价值,目前运维领域常见的场景包括:
针对运维知识体系的构建,我们分成三个重要的组成部分:
针对知识的创建主要分为两类:
在收集了知识信息之后,剩下的部分就是知识的应用了,在“使用场景说明”章节中,已经详细介绍了在运维领域可能的使用场景,集成工作无非就是api嵌入到使用场景中,结合业务流程来进行使用,通过大模型的核心能力基于对应场景上下文信息,提供知识,满足场景使用需求。
以告警工作台为例,说明一下大模型场景下整个系统交互的处理流程:
1. 首先,事件管理员在告警工作台看到了一条告警,对于这条告警自己也没有遇到过,这时当他打开这条告警进行分析时,系统会自动根据告警内容抛出一个“查询/提问”,如:针对下方这条告警系统要能够自动归纳出这是“CPU使用率异常”问题。
【次要告警(xx数据中心)】应用监控平台[APM],by10xxxxx,Linux服务器1分钟CPU负载高(实例:CPU),当前值:1.25,阈值:1 - 9999999,发生时间:09/17/2020 18:38:25 【详细信息:Cpu Number:8; 1 Min Load Average:9.99; D Process Number:0】【生产地址:*.168.1.*;所属资源池:暂无,序列号:210xxxxxxxxx0218】
2. 针对查询/提问的内容“cpu使用率异常”进行有效性检验,一般验证查询或提问的内容是否为空。
3. 针对查询/提问的内容进行向量化转换(大模型通用的一种实现方案将文本或知识进行向量化存储,同时查询也会先向量化,具体可以通过google了解一下技术细节)。
4. 通过向量化之后,需要到向量数据库进行查询跟该向量结果相似的内容,注意这一步一般是本地的算法工程来完成,找到跟该内容相似的所有内容,而不是将整个库提供给大模型,大模型是在此基础上进行推理。
5. 在基于向量的知识库中查询之后,会将满足条件的相似内容提交给大模型处理。
6. 在正式发送给大模型之前,需要Prompt处理,其实是让大模型进行角色扮演的指令,如针对上面一条告警生成的prompt建议如下:
你现在是一名运维领域的专家,主要处理一些重要的告警。 请根据告警的问题“CPU使用率异常”,帮助推荐给出问题出现的大致原因和解决方案。
7. 这时调用大模型的接口对该prompt进行处理,注意在这里大模型可以是openAI提供的也可以是国内不同的企业所开发的大模型,由大模型针对查询的问题和相似的内容做出推理判断。
8. 针对大模型判断的结果输出给告警工作台,如下图所示:
针对已有自动问答系统和知识库的企业用户,可以参照上图为系统集成边界,参照如上方式可以最大限度的保障企业已有的资产:
注意:为了未来对大模型进行效果微调,在系统设计时,要记录相应的调用日志,或在业务流程中对大模型回馈的结果进行评价,这样可以做为人工标注的数据,可以优化模型。
本次案例的实现,全部采用开源或SAAS的产品来提供,并不涉及到私有化部署的软件产品。软件列表如下所示,如何申请apikey请自行研究,在这里不再详细说明:
软件名称 | 用处 | 是否需要APIKEY |
---|---|---|
Pingcone | 知识的向量化存储 | 是,申请网址:Vector Database for Vector Search | Pinecone |
flowiseai | 大模型构建的流程化引擎,基于langchain打造。开源可以自行下载,本地部署,本例中是在railway平台上自动化部署的。 | 否 |
Openai | 本例中的大模型使用openai提供的,也可以替换为国内或其它厂商的大模型。 | 是,申请网址:openai.com |
以上软件只是实现该系统的作者推荐列表,在实际的应用中有很多开源、saas、商业版本的软件产品供使用,在这里不再详说明,各位可以根据自己企业的性质自行选择合作的解决方案产品。
由于采用大模型对私有化的知识库数据进行智能问答和知识库系统的实现,因此需要说明私有化知识提供给大模型时一般采取什么格式,会取得比较好的效率。
通常情况下,可以支持各种文档数据,包括work、pdf、markdown、json等,在flowise中都有相应的解析组件可以完成解析,本例中我采用jsons格式,最佳格式是包括两个字段内容prompt和completion,这样大模型可以比较容易识别为“问题”和“答案”。如下示例所示:
- {
- "prompt": "Redis内存使用率高",
- "completion": "Redis内存使用率高可能是由于数据存储的增长或未使用的数据未过期引起的。需要定期清理不必要的数据、优化内存配置以减少内存使用率。"
- }
注意:在实际应用中,一定要考虑如果一份文档中包括多个知识点,如何做知识点切分的情况,因此建议采用json格式的数据,比较容易切分,一个“{}”即为一个知识点,pdf、word格式的知识块切分,可自行探索。
在告警的场景中,可以将告警的内容抽象成一段简单明了的问题存放到prompt字段中,将针对该事件的分析及处置过程整理到completion字段中,completion中可以详细记录产生问题的场景报错信息、问题产生的原因、解决的办法等信息,这样可以提供给大模型更好的推理能力。下面有一份Atlassian的产品报障信息及处置结果的总结,供参考:
在开始之前需要先要有知识数据,本例我们为事件管理的智能问答系统,即在统一事件管理的工作台,事件分析及处置人员在对事件进行处置时,可以直接使用大模型推送的知识,并可以通过反覆盖的交互来完成问题的排查过程。
由于缺少这类的数据,以下知识为通过互联网搜索所得到的知识,比较简漏,但是通过构建这样私有化的知识内容,可以帮助我们走通整个构建的流程。
- {"prompt": "Unix服务器保留CPU利用率异常", "completion": "Unix服务器的CPU利用率异常可能是由于不正确的进程管理或资源争用导致的。通过查看系统进程、性能监控工具和日志,可以帮助确定问题的来源,并采取适当的措施来解决它。"}
- {"prompt": "GC次数", "completion": "GC次数表示垃圾回收的频率,它受到多种因素的影响,包括应用程序的负载和内存管理设置。要减少GC次数,可以优化代码,减少对象创建,增加堆内存,或者调整垃圾回收策略,以提高系统性能和稳定性。"}
- {"prompt": "业务成功率低", "completion": "业务成功率低可能是由于网络问题、系统故障或应用程序错误引起的。需要进行详细的故障排除,包括检查日志、监视系统性能、验证网络连接,以找到并解决问题的根本原因。"}
- {"prompt": "Unix服务器保留CPU利用率异常", "completion": "Unix服务器的CPU利用率异常可能是由于不正确的进程管理或资源争用导致的。通过查看系统进程、性能监控工具和日志,可以帮助确定问题的来源,并采取适当的措施来解决它。"}
- {"prompt": "Weblogic中间件JVM使用的堆栈空间百分比", "completion": "Weblogic中间件的JVM堆栈空间百分比表示堆栈空间的使用情况。可以通过调整JVM参数、垃圾回收策略和应用程序代码来优化堆栈空间的使用,以提高性能和稳定性。"}
- {"prompt": "Linux可用内存少", "completion": "Linux可用内存不足可能是由于运行的进程占用了太多内存,或者内存泄漏导致的。需要检查系统资源使用情况,释放不必要的进程或服务,以增加可用内存。"}
- {"prompt": "ESX服务器内存使用率", "completion": "ESX服务器的内存使用率表示服务器内存的利用情况。通过监视内存使用情况、调整虚拟机配置和分配更多内存资源,可以改善性能和避免内存不足问题。"}
- {"prompt": "Weblogic中间件JVM使用的Heap空间异常", "completion": "Weblogic中间件的JVM Heap空间异常可能是由内存泄漏或不正确的堆设置引起的。需要分析堆转储文件、调整JVM参数以及检查应用程序代码,以解决问题。"}
- {"prompt": "Unix服务器磁盘忙", "completion": "Unix服务器磁盘忙可能是由于磁盘读写操作过多或者磁盘故障引起的。需要查看磁盘活动、日志和性能监控数据,以找到问题并采取适当的措施。"}
- {"prompt": "Ping成功率低", "completion": "Ping成功率低通常是由于网络故障或丢包问题引起的。需要检查网络连接、路由、防火墙设置以及网络设备的状态,以提高Ping成功率。"}
- {"prompt": "数据存储占用率高", "completion": "高数据存储占用率可能是由于数据积累或未清理的旧数据引起的。需要定期清理、归档或扩展存储资源,以处理数据存储占用率高的问题。"}
- {"prompt": "NGINX连接数达上限", "completion": "当NGINX连接数达到上限时,可能是由于并发请求过多或配置限制不当引起的。需要增加连接数限制、优化配置和增加服务器资源以解决问题。"}
- {"prompt": "系统成功率低", "completion": "系统成功率低可能是由于软件错误、硬件故障或网络问题引起的。需要进行详细的故障排除,包括检查日志、监视系统性能和验证网络连接,以找到并解决问题的根本原因。"}
- {"prompt": "Redis内存使用率高", "completion": "Redis内存使用率高可能是由于数据存储的增长或未使用的数据未过期引起的。需要定期清理不必要的数据、优化内存配置以减少内存使用率。"}
我们需要登录pinecone,点击indexes,可以看到创建的index列表,本例中我们已经创建即了work index,基本上每个index对应一个领域的知识库,针对其它业务领域的可以再创建一个新的index。
对知识进行向量化之后,会有什么不同,我们可以看一下pingcone数据库存储的信息即可:我们无需创建任何表结果,embeddings方法会将原始数据即圈1位置的原始内容向量化转换为圈2的内容,并将这些信息都存储到一条记录中,一个分割的知识点一条记录。
flowiseai是一个可视化的大模型构建工具,提供了非常丰富的算子,可以满足不同情况下用户的建模需求,如上图所示,本例中主要使用了7个关键算法,构建步骤说明如下:
Flowise 是一个大模型构建工具,可以通过流程化的方式构建不同的应用,在本例中我们构建的是一个对话式机器人,因此,我们从chain中选择conversational retrieval QA Chain,它可以满足我们的需求,将其托动到红圈1所示的位置。
还有一个更重要的参数,点击Conversation Retrieval QA Chain界面的“Additional Parameters”按钮来配置Prompt,你也可以理解为规则,大致可以说明为你想要大模型角色扮演什么,他的知识从哪里来,回答知识时有些什么样的规则,本例中我配置如下:
You are currently an ITOM expert, responsible for providing solutions to all alarms that occur. You will provide me with answers from the given info. If the answer is not included, say exactly “Hmm, I’m not sure” and stop after that. Refuse to answer any question not about the info. Never break character. Follow these five instructions below in all your responses . Use Chinese lanquage only. 2. Use Chinese characters whenever possible, 3. Do not use English except in programming languages if any; 4. Avoid the Latin alphabet whenever possible. 5 Translate any other language to the Chinese language whenever possible
本例中我们使用OpenAI来完成,因此选择LLMs中的ChatOpenAI,在这里也可以选择一些其它厂商的模型(如aws、facebook、google等,甚至包括一些国内的大模型),如下图所示:
未开通4.0,在这里model Name配置为gpt3.5,connect Credential配置链接 openai 的apikey,其它参数选择默认即可。
在本例中我们选择pingcone这一SAAS软件。
在本例中由于知识内容比较简单,没有大量的数据,我们直接以文本的方式导入,如下图所示:
我们直接将知识内容放入text文本框中即可。针对该文本的内容需要切分为不同的知识点,所在还有一个text splitter参数,进入第5步。
文本切分主要是为了将一个大文件中会包括多个知识点,切分成一个个的独立知识点,存入向量数据库中,由于本例我们使用的json格式,切分比较简单,按“}”来进行切分即可,如下图所示:
如下图所示,本例也使用open ai 的embeddings算法:
选择buffer memory算法,参数如下图所配置即可:
我们输入“cpu利用率异常“,系统已经从我们构建的知识库中找到了答案,并且整个流程也能够跑通了:
集成操作也比较简单,提供了多种集成方法,建议选择javascript方法,只需要在场景中创建一个单独的页面,将javascript的代码嵌入,即可如第8步中看到的样子进行工作了,最后只要调整一下窗口的大小即可。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。