赞
踩
作者:来自 Elastic Bahubali Shetti
作为 SRE,分析应用程序比以往更加复杂。 你不仅必须确保应用程序以最佳状态运行以确保良好的客户体验,而且还必须了解某些情况下的内部工作原理以帮助排除故障。 分析基于生产的服务中的问题是一项团队运动。 它需要 SRE、DevOps、开发和支持才能找到根本原因并进行潜在的补救。 如果它有影响,那就更糟了,因为这是一场与时间的赛跑。 无论情况如何,都有大量信息需要消耗和处理。 这不仅包括客户正在经历的情况,还包括有助于提供最合适解决方案的内部数据。
Elastic 的 AI Assistant 有助于改进 SRE、DevOps、Dev 等的分析。 在使用自然语言问题的单个窗口中,你不仅可以使用一般信息进行分析,还可以将其与以下内容结合起来:
在本博客中,我们将引导你了解如何:
在我们完成从 GitHub 设置数据的步骤之前,让我们回顾一下 SRE 可以使用 AI 助手和 GitHub 存储库做什么。
我们最初使用 Elastic GitHub 连接器连接到 GitHub,并提取和处理两个存储库:OpenTelemetry 演示存储库(公共)和内部 Runbook 存储库(Elastic 内部)。
通过 ELSER 加载并解析这两个之后,我们向 AI 助手询问一些分析过程中通常会问到的简单问题。
由于我们提取了整个存储库(截至 2024 年 4 月 26 日),文档数量为 1,529,因此我们向它询问一个关于未解决问题总数的简单问题。 我们特别告诉 AI 助手搜索我们的内部索引,以确保 LLM 知道要求 Elasti c搜索其内部索引以获取问题总数。
Github AI Assistant issues number
Elastic 的 AI Assistant 使用 ELSER 遍历加载的 GitHub 存储库,并找到针对 shippingservice 的未解决问题(这是撰写本文时的以下问题)。
Github AI Assistant shipping service issue
由于我们加载了带有一些示例 Runbook 的内部 GitHub 存储库,因此 Elastic AI Assistant 可以正确找到该 Runbook。
Github AI Assistant Blog runbook
在浏览本博客时,我们将讨论 AI 助手如何使用 ELSER 发现这些问题,以及如何将其配置为使用你自己的 GitHub 存储库。
Elastic 拥有最先进的基于 RAG 的 AI 助手,可实现可观察性和安全性。 它可以帮助你使用以下方式分析数据:
你最喜欢的 LLM(OpenAI、Azure OpenAI、AWS Bedrock 等)
你可以连接到或引入 Elastic 索引的任何内部信息(GitHub、Confluence、客户问题等)
Elastic 的 AI Assistant 之所以能够做到这一点,是因为它支持 RAG,这有助于检索内部信息以及基于 LLM 的知识。
将 SRE 的相关内部信息添加到 Elastic 中:
当你查询 AI 助手信息时:
如果你想尝试本博客中的步骤,请满足以下一些先决条件:
第一步是设置 GitHub 连接器并连接到你的 GitHub 存储库。 Elastic 拥有来自 GitHub、Confluence、Google Drive、Jira、AWS S3、Microsoft Teams、Slack 等的多个连接器。 因此,虽然我们将在本博客中介绍 GitHub 连接器,但不要忘记其他连接器。
选择 GitHub 连接器并为其命名后,你需要添加两项:
接下来,将其添加到向导中的索引中。
为了添加我们在上一节中讨论的嵌入,我们需要将以下内容添加到连接器:
现在管道已创建,你需要开始同步 github 存储库。 当来自 github 存储库的文档进入时,它们将通过管道并添加嵌入。
设置管道后,同步连接器中的数据。 当 GitHub 存储库进入时,推理管道将按如下方式处理数据:
当你查看提取的 OpenTelemetry GitHub 文档时,你将看到如何将权重和 tokens 添加到索引中的 Predicted_value 字段。
当用户向人工智能助手提出查询时,这些嵌入现在将用于查找上下文最相关的文档,人工智能助手可能会使用它。
Elastic 的 AI 助手使用 ELSER 遍历加载的 Github 存储库,并找到针对 shippingservice 的未解决问题。 (这是撰写本文时的以下问题)。
Github AI Assistant shipping service issue
根据响应,我们可以看到 AI 助手现在可以使用索引来查找问题并用于进一步分析。
你现在已经看到了 Elastic 基于 RAG 的 AI 助手的设置是多么容易。 你可以从多个位置(GitHub、Confluence、Slack 等)引入文档。 我们展示了 GitHub 和 OpenTelemetry 的设置。 这些内部信息可用于管理问题、加速解决和改善客户体验。 查看我们的其他博客,了解 AI 助手如何帮助 SRE 更好地分析、降低 MTTR 并改善整体运营:
现有 Elastic Cloud 客户可以直接从 Elastic Cloud 控制台访问其中许多功能。 没有利用云上的 Elastic? 开始免费试用。
所有这一切在你的环境中也是可能的。 今天就了解如何开始。
本文中描述的任何特性或功能的发布和时间安排均由 Elastic 自行决定。 当前不可用的任何特性或功能可能无法按时交付或根本无法交付。
在这篇博文中,我们可能使用或引用了第三方生成人工智能工具,这些工具由其各自所有者拥有和运营。 Elastic 对第三方工具没有任何控制权,我们对其内容、操作或使用不承担任何责任,也不对你使用此类工具可能产生的任何损失或损害负责。 使用人工智能工具处理个人、敏感或机密信息时请务必谨慎。 你提交的任何数据都可能用于人工智能培训或其他目的。 无法保证你提供的信息将得到安全或保密。 在使用之前,你应该熟悉任何生成式人工智能工具的隐私惯例和使用条款。
Elastic、Elasticsearch、ESRE、Elasticsearch Relevance Engine 和相关标志是 Elasticsearch N.V. 的商标、徽标或注册商标。 在美国和其他国家。 所有其他公司和产品名称均为其各自所有者的商标、徽标或注册商标。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。