当前位置:   article > 正文

架构设计内容分享(一百零八):云原生架构升级之平台化服务治理_云原生平台限流熔断

云原生平台限流熔断

目录

1. 项目背景

2. 服务限流

3. 服务熔断

4. 总结


1. 项目背景

本篇文章将介绍云原生服务网格化改造过程服务治理的相关实践,其中服务限流、服务熔断为业务方使用场景最多的治理方案,本篇文章也将围绕服务限流、服务熔断两个方面介绍。

服务限流功能是保护服务的重要手段,外部流量请求量超过了系统处理能力的极限,后续新进入的请求会持续加重服务负载,导致资源耗尽发生服务出错。限流的目的就是拒绝过多的请求流量,保证服务整体负载处于合理水平。系统的吞吐量一般是可以被测算的,为了保证系统的稳定运行,一旦达到需要限制的阈值,就需要采取措施限制流量,比如延迟处理、拒绝处理,或者部分拒绝处理等。

引发故障的原因除了外部问题(流量激增)外还有系统内部的问题。与单体应用相比微服务架构的服务调用链路更加复杂,微服务的拆分虽然提升了系统的总体能力,但同时也增大了级联错误出现的可能性,多个服务之间存在依赖调用,如果某个服务无法及时响应请求,故障向调用源头方向传播,可能引发集群的大规模级联故障,造成整个系统不可用。为了防止此情况发生就需要引入服务熔断策略,熔断器的工作原理过程可以比作电路中的熔丝原理,即当电流过大可能引起线路等设备损坏时,熔丝熔断以切断电路,保护其他设备。与之类似,服务熔断机制在服务调用中设置阈值,当调用失败或超时次数超过这个阈值时,熔断器就会开启。一旦熔断器开启,之后的一段时间内所有的调用都将直接失败,而不会再请求远程服务。这样可以给出问题的服务留出恢复的时间,并防止故障进一步向其他服务蔓延。

图片

如上图,所示传统微服务架构下服务限流、服务熔断会以SDK形式侵入到业务代码的方式进行服务治理相关工作,但是这种强耦合的方案会增加开发的难度,增加维护成本,增加质量风险。比如 SDK 需要新增新特性,业务侧也很难配合 SDK 开发人员进行升级,所以很容易造成 SDK 的版本碎片化问题。如果再存在跨语言应用间的交互,对于多语言 SDK 的支持也非常的低效。一方面是相当于相同的代码以不同语言重复实现,实现这类代码既很难给开发人员带来成就感,团队稳定性难以保障;另一方面是如果实现这类基础框架时涉及到了语言特性,其他语言的开发者也很难直接翻译。

图片

而到了云原生架构下的服务网格(istio)体系会将服务限流、服务熔断等能力从微服务代码中抽离出来,形成统一的控制层面或者代理层面,实现业务与技术的复杂度分离,研发更专注于对业务价值的交付。

服务限流和服务熔断在云原生架构下的微服务中起着保护系统稳定运行的重要作用,通过防止系统过载和失败级联,维护了系统的可用性,提升了业务连续性。下面将详细介绍服务限流、服务熔断在云原生架构下的工作原理以及之家实践过程。

2. 服务限流

在服务网格(istio)体系中服务限流分为本地限流和全局限流两种:本地限流、全局限流。

2.1

本地限流

► 2.1.1、整体架构

图片

本地限流需要通过EnvoyFilter来实现,他不会请求外部服务,在envoy内部实现支持,而不需要依赖外部的流量控制组件。这种限流机制通过在应用程序中实施并监控一定的策略,来控制请求的发送速率或并发数,以确保底层的服务资源不会被过度使用或超载,其本质是一个令牌桶的算法。

► 2.1.2、部署示例

下面是一个本地限流的EnvoyFilter 声明:

  1. apiVersion: networking.istio.io/v1alpha3
  2. kind: EnvoyFilter
  3. metadata:
  4. name: filter-local-ratelimit-svc
  5. spec:
  6. workloadSelector:
  7. labels:
  8. app: productpage
  9. configPatches:
  10. - applyTo: HTTP_FILTER
  11. match:
  12. listener:
  13. filterChain:
  14. filter:
  15. name: "envoy.filters.network.http_connection_manager"
  16. patch:
  17. operation: INSERT_BEFORE
  18. value:
  19. name: envoy.filters.http.local_ratelimit
  20. typed_config:
  21. "@type": type.googleapis.com/udpa.type.v1.TypedStruct
  22. type_url: type.googleapis.com/envoy.extensions.filters.http.local_ratelimit.v3.LocalRateLimit
  23. value:
  24. stat_prefix: http_local_rate_limiter #表示生成stat的指标前缀
  25. token_bucket: #配置令牌桶
  26. max_tokens: 10 #表示最大令牌数量
  27. tokens_per_fill: 10 #表示每次填充的令牌数量
  28. fill_interval: 60s #表示填充令牌的间隔
  29. filter_enabled: #表示启用但不是强制
  30. runtime_key: local_rate_limit_enabled
  31. default_value:
  32. numerator: 100
  33. denominator: HUNDRED
  34. filter_enforced: #表示强制,可以配置百分比。
  35. runtime_key: local_rate_limit_enforced
  36. default_value:
  37. numerator: 100
  38. denominator: HUNDRED
  39. response_headers_to_add: #修改响应头信息,append为false表示修改,true表示添加。
  40. - append: false
  41. header:
  42. key: x-local-rate-limit
  43. value: 'true'

通常情况下,本地限流对保护应用不被高流量冲击有的显著的作用,由于本地限流是作用在每个应用的边车上并进行单点的令牌桶计算,本质是客户端级别的限流方案,无法实施服务级别的整体限流措施。这种情况下就需要引入全局限流的方案。

2.2

全局限流

► 2.2.1、整体架构

图片

Istio的全局限流方案中集成了一个全局的 gRPC ratelimit 服务。

图片

"Ratelimit 服务"是一种 Go/gRPC 服务,可在支持不同类型应用程序的通用限流方案。应用程序根据一个域和一组描述符[详见”限流策略“章节]请求作出速率限制决定。该服务通过运行时从文件(或者xDS 管理服务)读取配置,创建缓存密钥,并与 Redis 缓存对话,然后将决定返回给调用者。

► 2.2.2、http endpoint

 "Ratelimit  服务" 提供了一个http接口用来暴露一些核心能力,比如:

 健康检查

GET  http://{ratelimitServiceName}:8080/healthcheck

查看当前生效策略

GET  http://{ratelimitServiceName}:6060/rlconfig

更新细节请参考:

https://github.com/envoyproxy/ratelimit#http-port

► 2.2.3、限流策略

"Ratelimit 服务"可以通过两种方式加载限流策略,分别是:File Based Configuration Loading(文件方式)以及xDS Management Server Based 加载方式,下面是文件加载方式的一个示例:

  1. domain: ratelimit_demo01
  2. descriptors:
  3. - key: demoKey
  4. value: users
  5. rate_limit:
  6. unit: second
  7. requests_per_unit: 500
  8. - key: demoKey
  9. value: default
  10. rate_limit:
  11. unit: second
  12. requests_per_unit: 500

​​​​​

汽车之家采用的是第二种加载方式:XDS Management Server是一款实现Aggregated Discovery Service(ADS)的GRPC服务器。ratelimit 服务可以使用 XDS Management Server 的grpc服务 实时获取最新的限流策略。”ratelimit-config-server“是基于”go-control-plane + gin + gorm“自研的XDS Management Server 服务,支持http配置限流策略,并通过grpc将限流策略下发给限流服务。

图片

策略配置服务(ratelimit-config-server),新建策略接口请求示例:

  1. {
  2. "domain": "ratelimit_demo01",
  3. "descriptors": [
  4. {
  5. "key": "demoKey",
  6. "value": "users",
  7. "rate_limit": {
  8. "unit": 1, # second:1 minute:2 hour:3 day:4
  9. "requests_per_unit": 500
  10. }
  11. },
  12. {
  13. "key": "Remote_IP",
  14. "value": "default",
  15. "rate_limit": {
  16. "unit": 1, # second:1 minute:2 hour:3 day:4
  17. "requests_per_unit": 500
  18. }
  19. }
  20. ]
  21. }

在上面的配置中,域是“ratelimit_demo01”,我们在顶级描述符列表中设置了2个不同的速率限制。每个限制都有相同的键(“demoKey”)。它们具有不同的值(“users”和“default”),并且它们都设置了每秒500个请求的速率限制。

► 2.2.4、wasm插件

客户端访问汽车之家主要分两种情况:

      • 客户端直接访问汽车之家网站

      • 客户端访问CDN,回源到汽车之家后端服务

两种情况获取用户IP的方式略有不同,所以为了统一用户IP的获取方式,我们编写了wasm插件来处理用户IP获取问题:

插件作用

将 header 中 x-forwarded-for 信息分割

示例:

x-forwarded-for= 2409:8910:688:ab45:8542:c124:5236:128b,111.63.51.91, 182.138.255.115

拆分为:

x-forwarded-for-0 = 2409:8910:688:ab45:8542:c124:5236:128bx-forwarded-for-1 = 111.63.51.91x-forwarded-for-2 = 182.138.255.11

将haeder 中 :path 进行分割

示例:

:path=/getUser?name=autohome

拆分为:

x-path-0 = /getUser

► 2.2.5、部署示例

# 为服务名[dotnet-car-automesh-10001] 定义规则 IP=10.18.162.163 and path=/api/trace/health ,限速规则为 5/分钟

定义限流策略:​​​​​​​

  1. {
  2. "domain": "dotnet-car-automesh-10001",
  3. "descriptors": [
  4. {
  5. "key": "pathRaliemit",
  6. "value": "/api/trace/health",
  7. "descriptors": [
  8. {
  9. "key": "Remote_IP",
  10. "value": "10.18.162.163",
  11. "detailed_metric": true,
  12. "shadow_mode": false,
  13. "rate_limit": {
  14. "unit": 2,
  15. "requests_per_unit": 5
  16. }
  17. }
  18. ]
  19. }
  20. ]
  21. }

定义envoyfilter:

  1. apiVersion: networking.istio.io/v1alpha3
  2. kind: EnvoyFilter
  3. metadata:
  4. name: filter-ratelimit-dotnetdemo
  5. namespace: en-888
  6. spec:
  7. workloadSelector:
  8. # select by label in the same namespace
  9. labels:
  10. app_service: dotnet-demo-yzmeshjava-36643
  11. configPatches:
  12. # The Envoy config you want to modify
  13. - applyTo: HTTP_FILTER
  14. match:
  15. context: SIDECAR_INBOUND
  16. listener:
  17. filterChain:
  18. filter:
  19. name: "envoy.filters.network.http_connection_manager"
  20. subFilter:
  21. name: "envoy.filters.http.router"
  22. patch:
  23. operation: INSERT_BEFORE
  24. # Adds the Envoy Rate Limit Filter in HTTP filter chain.
  25. value:
  26. name: envoy.filters.http.ratelimit
  27. typed_config:
  28. "@type": type.googleapis.com/envoy.extensions.filters.http.ratelimit.v3.RateLimit
  29. domain: automesh-ratelimit
  30. failure_mode_deny: false
  31. request_type: both # internal、external、both
  32. timeout: 20ms
  33. rate_limited_as_resource_exhausted: true
  34. enable_x_ratelimit_headers: DRAFT_VERSION_03
  35. disable_x_envoy_ratelimited_header: false
  36. rate_limit_service:
  37. grpc_service:
  38. envoy_grpc:
  39. cluster_name: rate_limit_cluster
  40. timeout: 10s
  41. transport_api_version: V3
  42. - applyTo: CLUSTER
  43. match:
  44. cluster:
  45. service: ratelimit.ratelimit
  46. patch:
  47. operation: ADD
  48. # Adds the rate limit service cluster for rate limit service defined in step 1.
  49. value:
  50. name: rate_limit_cluster
  51. type: STRICT_DNS
  52. connect_timeout: 10s
  53. lb_policy: ROUND_ROBIN
  54. http2_protocol_options: {}
  55. load_assignment:
  56. cluster_name: rate_limit_cluster
  57. endpoints:
  58. - lb_endpoints:
  59. - endpoint:
  60. address:
  61. socket_address:
  62. address: ratelimit.ratelimit
  63.                       port_value: 8081

​​​​​​

定义action envoyfilter:

  1. apiVersion: networking.istio.io/v1alpha3
  2. kind: EnvoyFilter
  3. metadata:
  4. name: filter-ratelimit-svc-{app_service}
  5. namespace: en-888
  6. spec:
  7. workloadSelector:
  8. labels:
  9. app_service: {app_service}
  10. configPatches:
  11. - applyTo: VIRTUAL_HOST
  12. match:
  13. context: SIDECAR_INBOUND
  14. routeConfiguration:
  15. vhost:
  16. name: "inbound|http|8080"
  17. route:
  18. action: ANY
  19. patch:
  20. operation: MERGE
  21. # Applies the rate limit rules.
  22. value:
  23. rate_limits:
  24. - actions:
  25. - request_headers:
  26. header_name: "x-path-0"
  27. descriptor_key: "pathRaliemit"
  28. - request_headers:
  29. header_name: "x-forwarded-for-0"
  30. descriptor_key: "remoteIPRaliemit"

​​​​​​​

测试

图片

根据测试结果可以看出,已经触发限流机制【429 Too Many Requests (太多请求)】

3. 服务熔断

常用的服务熔断方式通常以SDK的形式嵌入业务代码中,常用的SDK组件为Hystrix和Sentinel ,之家部分核心应用也采用了此方案。这种强耦合的方案带来增加开发的难度,增加维护成本,增加质量风险等问题,所以我们利用Istio的特性将服务熔断能力下沉到Sidecar,由Sidecar接管服务的流量并对其进行治理。下面将介绍不侵入代码的Istio服务熔断方案。Istio中熔断在DestinationRule的CRD资源的TrafficPolicy中设置:

    • 设置连接池connectionPool为服务配置连接的数量,实现限流熔断;

    • 设置异常检测outlierDetection控制从负载均衡池中剔除不健康的实例,实现服务实例隔离熔断。

“连接池connectionPool”熔断方式,使用上和局部限流功能差不多,所以我们在实际应用中很少采用此方式进行熔断,一般会采用“异常检测outlierDetection”方式进行熔断配置。

DestinationRule实现:

  1. apiVersion: networking.istio.io/v1beta1
  2. kind: DestinationRule
  3. metadata:
  4. name: dotnet-car-automesh
  5. spec:
  6. host: dotnet-car-automesh-10001.autohome.com
  7. trafficPolicy:
  8. outlierDetection:
  9. consecutive5xxErrors: 10
  10. interval: 5s
  11. baseEjectionTime: 5s
  12. maxEjectionPercent: 100

​​​​

EnvoyFilter实现:

  1. apiVersion: networking.istio.io/v1alpha3
  2. kind: EnvoyFilter
  3. metadata:
  4. name: match
  5. spec:
  6. workloadSelector:
  7. labels:
  8. app_service: dotnet-car-automesh
  9. configPatches:
  10. - applyTo: CLUSTER
  11. match:
  12. cluster:
  13. name: outbound|8080||dotnet-car-automesh-10001.autohome.com
  14. patch:
  15. operation: MERGE
  16. value:
  17. outlierDetection:
  18. consecutive5xxErrors: 10
  19. interval: 5s
  20. baseEjectionTime: 5s
  21. maxEjectionPercent: 100

此熔断策略的目的是在每5秒钟进行异常点检测,当一个实例返回连续的5xx错误10次时,该实例会被标记为异常点并被隔离(剔除)5秒。同时,所有实例都可以被标记为异常点并隔离,以保护整个系统免受错误实例的影响。

其中“DestinationRule实现”会把熔断策略下发到所有的相关调用方边车上,生成类似全局的熔断措施,服务治理体验非常不好。采用“EnvoyFilter实现”则可以通过“workloadSelector” 使熔断策略下发到指定的服务调用方,从而实现细粒度的配置下发。

然而以上两种方式都存在弊端,那就是只能以“域名”或者“服务名称”为单位进行熔断,不能细粒度到应用path级别比如想熔断指定接口(http://dotnet-car-automesh-10001:8080/api/trace/health)Istio 官方的熔断方案是不能满足需求的,基于此种情况我们计划通过wasm插件的方式实现平台级并满足更细粒度的服务熔断方案。实现思路为利用 proxy-wasm extension 机制,借助 Sentinel Go 熔断算法的实现,在Istio侧实现服务熔断能力。目前该功能还在研发中,有兴趣的小伙伴欢迎留言交流。

4. 总结

通过本篇文章,为大家介绍了云原生下的服务治理的相关概念以及汽车之家基于原生方案的技术改造。云原生能力的泛化与平台化可为技术人员提供便捷的服务治理能力,使其有更多的精力聚焦在业务本身。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/155062
推荐阅读
相关标签
  

闽ICP备14008679号