当前位置:   article > 正文

微服务04 分布式搜索引擎 elasticsearch DSL数据聚合 自动补全 数据同步 集群 微服务保护 Sentinel_dsl aggregations

dsl aggregations

微服务03 分布式搜索引擎 elasticsearch ELK kibana RestAPI 索引库 DSL查询 RestClient 黑马旅游

分布式搜索引擎03

1.数据聚合

聚合(aggregations)可以让我们极其方便的实现对数据的统计、分析、运算。例如:

  • 什么品牌的手机最受欢迎?

  • 这些手机的平均价格、最高价格、最低价格?

  • 这些手机每月的销售情况如何?

实现这些统计功能的比数据库的sql要方便的多,而且查询速度非常快,可以实现近实时搜索效果。

1.1.聚合的种类

聚合常见的有三类:

  • 桶(Bucket)聚合:用来对文档做分组

  • TermAggregation:按照文档字段值分组,例如按照品牌值分组、按照国家分组

  • Date Histogram:按照日期阶梯分组,例如一周为一组,或者一月为一组

  • 度量(Metric)聚合:用以计算一些值,比如:最大值、最小值、平均值等

  • Avg:求平均

  • Max:求最

  • Min:求最

  • Stats:同时求max、min、avg、sum

  • 管道(pipeline)聚合:其它聚合的结果为基础做聚合

注意: 参加聚合的字段必须是keyword、日期、数值、布尔类型( 不分词

1.2.DSL实现聚合

现在,我们要统计所有数据中的酒店品牌有几种,其实就是按照品牌对数据分组。此时可以根据酒店品牌的名称做聚合,也就是Bucket聚合。

1.2.1.Bucket聚合语法

语法如下:

  1. GET /hotel/_search
  2. {
  3. "size": 0, // 设置size为0,结果中不包含文档,只包含聚合结果
  4. "aggs": { // 定义聚合
  5. "brandAgg": { //给聚合起个名字
  6. "terms": { // 聚合的类型,按照品牌值聚合,所以选择term
  7. "field": "brand", // 参与聚合的字段
  8. "size": 20 // 希望获取的聚合结果数量
  9. }
  10. }
  11. }
  12. }

结果如图:

1.2.2.聚合结果排序

默认情况下,Bucket聚合会统计Bucket内的文档数量,记为_count,并且按照_count降序排序。

我们可以指定order属性,自定义聚合的排序方式:

  1. GET /hotel/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "brandAgg": {
  6. "terms": {
  7. "field": "brand",
  8. "order": {
  9. "_count": "asc" // 按照_count升序排列
  10. },
  11. "size": 20
  12. }
  13. }
  14. }
  15. }

1.2.3.限定聚合范围

默认情况下,Bucket聚合是对索引库的所有文档做聚合,但真实场景下,用户会输入搜索条件,因此聚合必须是对搜索结果聚合。那么聚合必须添加限定条件。

我们可以限定要聚合的文档范围,只要添加query条件即可:

  1. GET /hotel/_search
  2. {
  3. "query": {
  4. "range": {
  5. "price": {
  6. "lte": 200 // 只对200元以下的文档聚合
  7. }
  8. }
  9. },
  10. "size": 0,
  11. "aggs": {
  12. "brandAgg": {
  13. "terms": {
  14. "field": "brand",
  15. "size": 20
  16. }
  17. }
  18. }
  19. }

这次,聚合得到的品牌明显变少了:

1.2.4.Metric聚合语法

上节课,我们对酒店按照品牌分组,形成了一个个桶。现在我们需要对桶内的酒店做运算,获取每个品牌的用户评分的min、max、avg等值。

这就要用到Metric聚合了,例如stat聚合:就可以获取min、max、avg等结果。

语法如下:

  1. GET /hotel/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "brandAgg": {
  6. "terms": {
  7. "field": "brand",
  8. "size": 20
  9. },
  10. "aggs": { // 是brands聚合的子聚合,也就是分组后对每组分别计算
  11. "score_stats": { // 聚合名称
  12. "stats": { // 聚合类型,这里stats可以计算min、max、avg等
  13. "field": "score" // 聚合字段,这里是score
  14. }
  15. }
  16. }
  17. }
  18. }
  19. }

这次的score_stats聚合是在brandAgg的聚合内部嵌套的子聚合。因为我们需要在每个桶分别计算

另外,我们还可以给聚合结果做个排序,例如按照每个桶的酒店平均分做排序:

这里面order可以写多个条件 写在后面的先执行 不信可以试一下

1.2.5.小结

aggs代表聚合,与query同级,此时query的作用是?

  • 限定聚合的的文档范围

聚合必须的三要素

  • 聚合名称

  • 聚合类型

  • 聚合字段

聚合可配置属性有:

  • size:指定聚合结果数量

  • order:指定聚合结果排序方式

  • field:指定聚合字段

1.3.RestAPI实现聚合

1.3.1.API语法

聚合条件与query条件同级别,因此需要使用request.source()来指定聚合条件。

聚合条件的语法:

聚合的结果也与查询结果不同,API也比较特殊。不过同样是JSON逐层解析:

1.3.2.业务需求

需求:搜索页面的品牌、城市等信息不应该是在页面写死,而是通过聚合索引库中的酒店数据得来的:

分析:

目前,页面的城市列表、星级列表、品牌列表都是写死的,并不会随着搜索结果的变化而变化。但是用户搜索条件改变时,搜索结果会跟着变化

例如:用户搜索“东方明珠”,那搜索的酒店肯定是在上海东方明珠附近,因此,城市只能是上海,此时城市列表中就不应该显示北京、深圳、杭州这些信息了

也就是说,搜索结果中包含哪些城市,页面就应该列出哪些城市;搜索结果中包含哪些品牌,页面就应该列出哪些品牌。

如何得知搜索结果中包含哪些品牌?如何得知搜索结果中包含哪些城市?

使用聚合功能,利用Bucket聚合,对搜索结果中的文档基于品牌分组、基于城市分组,就能得知包含哪些品牌、哪些城市了。

因为是对搜索结果聚合,因此聚合是限定范围的聚合,也就是说聚合的限定条件跟搜索文档的条件一致

查看浏览器可以发现,前端其实已经发出了这样的一个请求

请求参数与搜索文档的参数完全一致

返回值类型就是页面要展示的最终结果:

结果是一个Map结构

  • key是字符串,城市、星级、品牌、价格

  • value是集合,例如多个城市的名称

1.3.3.业务实现

在cn.itcast.hotel.web包的HotelController中添加一个方法,遵循下面的要求:

  • 请求方式:POST

  • 请求路径:/hotel/filters

  • 请求参数:RequestParams,与搜索文档的参数一致

  • 返回值类型:Map<String, List<String>>

代码:

  1. @PostMapping("filters")
  2. public Map<String, List<String>> getFilters(@RequestBody RequestParams params){
  3. return hotelService.getFilters(params);
  4. }

这里调用了IHotelService中的getFilters方法,尚未实现。

在cn.itcast.hotel.service.IHotelService中定义新方法:

124集有坑 , map的key要put定义成为英文brand...的 和定义的字段对应

  1. Map<String, List<String>> filters(RequestParams params);

在cn.itcast.hotel.service.impl.HotelService中实现该方法:

  1. @Override
  2. public Map<String, List<String>> filters(RequestParams params) {
  3. try {
  4. // 1.准备Request
  5. SearchRequest request = new SearchRequest("hotel");
  6. // 2.准备DSL
  7. // 2.1.query
  8. buildBasicQuery(params, request);
  9. // 2.2.设置size
  10. request.source().size(0);
  11. // 2.3.聚合
  12. buildAggregation(request);
  13. // 3.发出请求
  14. SearchResponse response = client.search(request, RequestOptions.DEFAULT);
  15. // 4.解析结果
  16. Map<String, List<String>> result = new HashMap<>();
  17. Aggregations aggregations = response.getAggregations();
  18. // 4.1.根据品牌名称,获取品牌结果
  19. List<String> brandList = getAggByName(aggregations, "brandAgg");
  20. result.put("品牌", brandList);
  21. // 4.2.根据品牌名称,获取品牌结果
  22. List<String> cityList = getAggByName(aggregations, "cityAgg");
  23. result.put("城市", cityList);
  24. // 4.3.根据品牌名称,获取品牌结果
  25. List<String> starList = getAggByName(aggregations, "starAgg");
  26. result.put("星级", starList);
  27. return result;
  28. } catch (IOException e) {
  29. throw new RuntimeException(e);
  30. }
  31. }
  32. private void buildAggregation(SearchRequest request) {
  33. request.source().aggregation(AggregationBuilders
  34. .terms("brandAgg")
  35. .field("brand")
  36. .size(100)
  37. );
  38. request.source().aggregation(AggregationBuilders
  39. .terms("cityAgg")
  40. .field("city")
  41. .size(100)
  42. );
  43. request.source().aggregation(AggregationBuilders
  44. .terms("starAgg")
  45. .field("starName")
  46. .size(100)
  47. );
  48. }
  49. private List<String> getAggByName(Aggregations aggregations, String aggName) {
  50. // 4.1.根据聚合名称获取聚合结果
  51. Terms brandTerms = aggregations.get(aggName);
  52. // 4.2.获取buckets
  53. List<? extends Terms.Bucket> buckets = brandTerms.getBuckets();
  54. // 4.3.遍历
  55. List<String> brandList = new ArrayList<>();
  56. for (Terms.Bucket bucket : buckets) {
  57. // 4.4.获取key
  58. String key = bucket.getKeyAsString();
  59. brandList.add(key);
  60. }
  61. return brandList;
  62. }

2.自动补全

当用户在搜索框输入字符时,我们应该提示出与该字符有关的搜索项,如图:

这种根据用户输入的字母,提示完整词条的功能,就是自动补全了。

因为需要根据拼音字母来推断,因此要用到拼音分词功能。

2.1.拼音分词器

要实现根据字母做补全,就必须对文档按照拼音分词。在GitHub上恰好有elasticsearch的拼音分词插件。地址:GitHub - medcl/elasticsearch-analysis-pinyin: This Pinyin Analysis plugin is used to do conversion between Chinese characters and Pinyin.

课前资料中也提供了拼音分词器的安装包:

安装方式与IK分词器一样,分三步:

①解压

上传到虚拟机中,elasticsearch的plugin目录

③重启elasticsearch

④测试

详细安装步骤可以参考IK分词器的安装过程。

测试用法如下:

  1. POST /_analyze
  2. {
  3. "text": "如家酒店还不错",
  4. "analyzer": "pinyin"
  5. }

结果:

2.2.自定义分词器

默认的拼音分词器会将每个汉字单独分为拼音,而我们希望的是每个词条形成一组拼音,需要对拼音分词器做个性化定制,形成自定义分词器

elasticsearch中分词器(analyzer)的组成包含三部分:

  • character filters:在tokenizer之前对文本进行处理。例如删除字符、替换字符

  • tokenizer:

  • 将文本按照一定的规则切割成词条(term)。例如keyword,就是不分词;还有ik_smart

  • tokenizer filter:

  • tokenizer输出的词条做进一步处理。例如大小写转换、同义词处理、拼音处理等

文档分词时会依次由这三部分来处理文档:

声明自定义分词器的语法如下:

我们可以在创建索引库时,通过settings来配置自定义的analyzer (分词器)

  1. PUT /test
  2. {
  3. "settings": {
  4. "analysis": {
  5. "analyzer": { // 自定义分词器
  6. "my_analyzer": { // 分词器名称
  7. "tokenizer": "ik_max_word",
  8. "filter": "py"
  9. }
  10. },
  11. "filter": { // 自定义tokenizer filter
  12. "py": { // 过滤器名称
  13. "type": "pinyin", // 过滤器类型,这里是pinyin
  14. "keep_full_pinyin": false,
  15. "keep_joined_full_pinyin": true,
  16. "keep_original": true,
  17. "limit_first_letter_length": 16,
  18. "remove_duplicated_term": true,
  19. "none_chinese_pinyin_tokenize": false
  20. }
  21. }
  22. }
  23. },
  24. "mappings": {
  25. "properties": {
  26. "name": {
  27. "type": "text",
  28. "analyzer": "my_analyzer",
  29. "search_analyzer": "ik_smart"
  30. }
  31. }
  32. }
  33. }

测试:

总结:

如何使用拼音分词器

  • ①下载pinyin分词器

  • ②解压并放到elasticsearch的plugin目录

  • ③重启即可

如何自定义分词器

  • ①创建索引库时,在settings中配置,可以包含三部分

  • ②character filter

  • ③tokenizer

  • ④filter

拼音分词器注意事项

  • 为了避免搜索到同音字,搜索时不要使用拼音分词器

  1. DELETE /test
  2. PUT /test
  3. {
  4. "settings": {
  5. "analysis": {
  6. "analyzer": {
  7. "my_analyzer": {
  8. "tokenizer": "ik_max_word",
  9. "filter": "py"
  10. }
  11. },
  12. "filter": {
  13. "py": {
  14. "type": "pinyin",
  15. "keep_full_pinyin": false,
  16. "keep_joined_full_pinyin": true,
  17. "keep_original": true,
  18. "limit_first_letter_length": 16,
  19. "remove_duplicated_term": true,
  20. "none_chinese_pinyin_tokenize": false
  21. }
  22. }
  23. }
  24. },
  25. "mappings": {
  26. "properties": {
  27. "name":{
  28. "type":"text",
  29. "analyzer":"my_analyzer",
  30. "search_analyzer":"ik_smart"
  31. }
  32. }
  33. }
  34. }
  35. POST /test/_doc/1
  36. {
  37. "id": 1,
  38. "name": "狮子"
  39. }
  40. POST /test/_doc/2
  41. {
  42. "id": 2,
  43. "name": "虱子"
  44. }
  45. GET /test/_search
  46. {
  47. "query": {
  48. "match": {
  49. "name": "掉入狮子笼咋办"
  50. }
  51. }
  52. }

"search_analyzer":"ik_smart" :这样搜“掉入狮子笼咋办”的时候就不会出来虱子

2.3.自动补全查询

elasticsearch提供了Completion Suggester查询来实现自动补全功能。这个查询会匹配以用户输入内容开头的词条并返回。为了提高补全查询的效率,对于文档中字段的类型有一些约束:

  • 参与补全查询的字段必须是completion类型

  • 字段的内容一般是用来补全的多个词条形成的数组

比如,一个这样的索引库:

  1. // 创建索引库
  2. PUT test
  3. {
  4. "mappings": {
  5. "properties": {
  6. "title":{
  7. "type": "completion"
  8. }
  9. }
  10. }
  11. }

然后插入下面的数据:

  1. // 示例数据
  2. POST test/_doc
  3. {
  4. "title": ["Sony", "WH-1000XM3"]
  5. }
  6. POST test/_doc
  7. {
  8. "title": ["SK-II", "PITERA"]
  9. }
  10. POST test/_doc
  11. {
  12. "title": ["Nintendo", "switch"]
  13. }

查询的DSL语句如下:

  1. // 自动补全查询
  2. GET /test/_search
  3. {
  4. "suggest": {
  5. "title_suggest": {
  6. "text": "s", // 关键字
  7. "completion": {
  8. "field": "title", // 补全查询的字段
  9. "skip_duplicates": true, // 跳过重复的
  10. "size": 10 // 获取前10条结果
  11. }
  12. }
  13. }
  14. }

2.4.实现酒店搜索框自动补全

现在,我们的hotel索引库还没有设置拼音分词器,需要修改索引库中的配置。但是我们知道索引库是无法修改的,只能删除然后重新创建

另外,我们需要添加一个字段,用来做自动补全,将brand、suggestion、city等都放进去,作为自动补全的提示。

因此,总结一下,我们需要做的事情包括:

  1. 修改hotel索引库结构,设置自定义拼音分词器

  1. 修改索引库的name、all字段,使用自定义分词器

  1. 索引库添加一个新字段suggestion,类型为completion类型,使用自定义的分词器

  1. 给HotelDoc类添加suggestion字段,内容包含brand、business

  1. 重新导入数据到hotel库

2.4.1.修改酒店映射结构

代码如下:

  1. // 酒店数据索引库
  2. PUT /hotel
  3. {
  4. "settings": {
  5. "analysis": {
  6. "analyzer": {
  7. "text_anlyzer": {
  8. "tokenizer": "ik_max_word",
  9. "filter": "py"
  10. },
  11. "completion_analyzer": {
  12. "tokenizer": "keyword", //词条 不分词
  13. "filter": "py"
  14. }
  15. },
  16. "filter": {
  17. "py": {
  18. "type": "pinyin",
  19. "keep_full_pinyin": false,
  20. "keep_joined_full_pinyin": true,
  21. "keep_original": true,
  22. "limit_first_letter_length": 16,
  23. "remove_duplicated_term": true,
  24. "none_chinese_pinyin_tokenize": false
  25. }
  26. }
  27. }
  28. },
  29. "mappings": {
  30. "properties": {
  31. "id":{
  32. "type": "keyword"
  33. },
  34. "name":{
  35. "type": "text",
  36. "analyzer": "text_anlyzer",
  37. "search_analyzer": "ik_smart",
  38. "copy_to": "all"
  39. },
  40. "address":{
  41. "type": "keyword",
  42. "index": false
  43. },
  44. "price":{
  45. "type": "integer"
  46. },
  47. "score":{
  48. "type": "integer"
  49. },
  50. "brand":{
  51. "type": "keyword",
  52. "copy_to": "all"
  53. },
  54. "city":{
  55. "type": "keyword"
  56. },
  57. "starName":{
  58. "type": "keyword"
  59. },
  60. "business":{
  61. "type": "keyword",
  62. "copy_to": "all"
  63. },
  64. "location":{
  65. "type": "geo_point"
  66. },
  67. "pic":{
  68. "type": "keyword",
  69. "index": false
  70. },
  71. "all":{
  72. "type": "text",
  73. "analyzer": "text_anlyzer",
  74. "search_analyzer": "ik_smart"
  75. },
  76. "suggestion":{
  77. "type": "completion",
  78. "analyzer": "completion_analyzer"
  79. }
  80. }
  81. }
  82. }

2.4.2.修改HotelDoc实体

HotelDoc中要添加一个字段,用来做自动补全,内容可以是酒店品牌、城市、商圈等信息。按照自动补全字段的要求,最好是这些字段的数组。

因此我们在HotelDoc中添加一个suggestion字段,类型为List<String>,然后将brand、city、business等信息放到里面。

代码如下:

  1. package cn.itcast.hotel.pojo;
  2. import lombok.Data;
  3. import lombok.NoArgsConstructor;
  4. import java.util.ArrayList;
  5. import java.util.Arrays;
  6. import java.util.Collections;
  7. import java.util.List;
  8. @Data
  9. @NoArgsConstructor
  10. public class HotelDoc {
  11. private Long id;
  12. private String name;
  13. private String address;
  14. private Integer price;
  15. private Integer score;
  16. private String brand;
  17. private String city;
  18. private String starName;
  19. private String business;
  20. private String location;
  21. private String pic;
  22. private Object distance;
  23. private Boolean isAD;
  24. private List<String> suggestion;
  25. public HotelDoc(Hotel hotel) {
  26. this.id = hotel.getId();
  27. this.name = hotel.getName();
  28. this.address = hotel.getAddress();
  29. this.price = hotel.getPrice();
  30. this.score = hotel.getScore();
  31. this.brand = hotel.getBrand();
  32. this.city = hotel.getCity();
  33. this.starName = hotel.getStarName();
  34. this.business = hotel.getBusiness();
  35. this.location = hotel.getLatitude() + ", " + hotel.getLongitude();
  36. this.pic = hotel.getPic();
  37. // 组装suggestion
  38. if(this.business.contains("/")){
  39. // business有多个值,需要切割
  40. String[] arr = this.business.split("/");
  41. // 添加元素
  42. this.suggestion = new ArrayList<>();
  43. this.suggestion.add(this.brand);
  44. Collections.addAll(this.suggestion, arr);
  45. }else {
  46. this.suggestion = Arrays.asList(this.brand, this.business);
  47. }
  48. }
  49. }

2.4.3.重新导入

重新执行之前编写的导入数据功能,可以看到新的酒店数据中包含了suggestion:

2.4.4.自动补全查询的JavaAPI

之前我们学习了自动补全查询的DSL,而没有学习对应的JavaAPI,这里给出一个示例:

自动补全的结果也比较特殊,解析的代码如下:

2.4.5.实现搜索框自动补全

查看前端页面,可以发现当我们在输入框键入时,前端会发起ajax请求:

返回值是补全词条的集合,类型为List<String>

1)在cn.itcast.hotel.web包下的HotelController中添加新接口,接收新的请求

  1. @GetMapping("suggestion")
  2. public List<String> getSuggestions(@RequestParam("key") String prefix) {
  3. return hotelService.getSuggestions(prefix);
  4. }

2)在cn.itcast.hotel.service包下的IhotelService中添加方法

  1. List<String> getSuggestions(String prefix);

3)在cn.itcast.hotel.service.impl.HotelService中实现该方法:

  1. @Override
  2. public List<String> getSuggestions(String prefix) {
  3. try {
  4. // 1.准备Request
  5. SearchRequest request = new SearchRequest("hotel");
  6. // 2.准备DSL
  7. request.source().suggest(new SuggestBuilder().addSuggestion(
  8. "suggestions",
  9.                //要补全的字段"suggestion"
  10. SuggestBuilders.completionSuggestion("suggestion")
  11. .prefix(prefix)//关键字
  12. .skipDuplicates(true)
  13. .size(10)//获取前10条
  14. ));
  15. // 3.发起请求
  16. SearchResponse response = client.search(request, RequestOptions.DEFAULT);
  17. // 4.解析结果
  18. Suggest suggest = response.getSuggest();
  19. // 4.1.根据补全查询名称,获取补全结果
  20. CompletionSuggestion suggestions = suggest.getSuggestion("suggestions");
  21. // 4.2.获取options
  22. List<CompletionSuggestion.Entry.Option> options = suggestions.getOptions();
  23. // 4.3.遍历
  24. List<String> list = new ArrayList<>(options.size());
  25. for (CompletionSuggestion.Entry.Option option : options) {
  26. String text = option.getText().toString();
  27. list.add(text);
  28. }
  29. return list;
  30. } catch (IOException e) {
  31. throw new RuntimeException(e);
  32. }
  33. }

3.数据同步

elasticsearch中的酒店数据来自于mysql数据库,因此mysql数据发生改变时,elasticsearch也必须跟着改变,这个就是elasticsearch与mysql之间的数据同步

3.1.思路分析

常见的数据同步方案有三种:

  • 同步调用

  • 异步通知

  • 监听binlog

3.1.1.同步调用

方案一:同步调用

基本步骤如下:

  • hotel-demo对外提供接口,用来修改elasticsearch中的数据

  • 酒店管理服务在完成数据库操作后,直接调用hotel-demo提供的接口

3.1.2.异步通知

方案二:异步通知

流程如下:

  • hotel-admin对mysql数据库数据完成增、删、改后,发送MQ消息

  • hotel-demo监听MQ,接收到消息后完成elasticsearch数据修改

3.1.3.监听binlog

方案三:监听binlog

流程如下:

  • 给mysql开启binlog功能

  • mysql完成增、删、改操作都会记录在binlog

  • hotel-demo基于canal监听binlog变化,实时更新elasticsearch中的内容

3.1.4.选择

方式一:同步调用

  • 优点:实现简单,粗暴

  • 缺点:业务耦合度高

方式二:异步通知

  • 优点:低耦合,实现难度一般

  • 缺点:依赖mq的可靠

方式三:监听binlog

  • 优点:完全解除服务间耦合

  • 缺点:开启binlog增加数据库负担、实现复杂度高

3.2.实现数据同步

3.2.1.思路

利用课前资料提供的hotel-admin项目作为酒店管理的微服务。

当酒店数据发生增、删、改时,要求对elasticsearch中数据也要完成相同操作。

步骤:

  • 导入课前资料提供的hotel-admin项目,启动并测试酒店数据的CRUD

  • 声明exchange、queue、RoutingKey

  • 在hotel-admin中的增、删、改业务中完成消息发送

  • 在hotel-demo中完成消息监听,并更新elasticsearch中数据

  • 启动并测试数据同步功能

3.2.2.导入demo

导入课前资料提供的hotel-admin项目:

运行后,访问 http://localhost:8099

其中包含了酒店的CRUD功能:

3.2.3.声明交换机、队列

MQ结构如图:

1)引入依赖

在hotel-admin、hotel-demo中引入rabbitmq的依赖:

  1. <!--amqp-->
  2. <dependency>
  3. <groupId>org.springframework.boot</groupId>
  4. <artifactId>spring-boot-starter-amqp</artifactId>
  5. </dependency>
2)声明队列交换机名称

在hotel-admin和hotel-demo中的cn.itcast.hotel.constatnts包下新建一个类MqConstants:

  1. package cn.itcast.hotel.constatnts;
  2. public class MqConstants {
  3. /**
  4. * 交换机
  5. */
  6. public final static String HOTEL_EXCHANGE = "hotel.topic";
  7. /**
  8. * 监听新增和修改的队列
  9. */
  10. public final static String HOTEL_INSERT_QUEUE = "hotel.insert.queue";
  11. /**
  12. * 监听删除的队列
  13. */
  14. public final static String HOTEL_DELETE_QUEUE = "hotel.delete.queue";
  15. /**
  16. * 新增或修改的RoutingKey
  17. */
  18. public final static String HOTEL_INSERT_KEY = "hotel.insert";
  19. /**
  20. * 删除的RoutingKey
  21. */
  22. public final static String HOTEL_DELETE_KEY = "hotel.delete";
  23. }
3)声明队列交换机

在hotel-demo中,定义配置类,声明队列、交换机

  1. package cn.itcast.hotel.config;
  2. import cn.itcast.hotel.constants.MqConstants;
  3. import org.springframework.amqp.core.Binding;
  4. import org.springframework.amqp.core.BindingBuilder;
  5. import org.springframework.amqp.core.Queue;
  6. import org.springframework.amqp.core.TopicExchange;
  7. import org.springframework.context.annotation.Bean;
  8. import org.springframework.context.annotation.Configuration;
  9. @Configuration
  10. public class MqConfig {
  11. @Bean
  12. public TopicExchange topicExchange(){
  13. return new TopicExchange(MqConstants.HOTEL_EXCHANGE, true, false);
  14. }
  15. @Bean
  16. public Queue insertQueue(){
  17. return new Queue(MqConstants.HOTEL_INSERT_QUEUE, true);
  18. }
  19. @Bean
  20. public Queue deleteQueue(){
  21. return new Queue(MqConstants.HOTEL_DELETE_QUEUE, true);
  22. }
  23. @Bean
  24. public Binding insertQueueBinding(){
  25. return BindingBuilder.bind(insertQueue()).to(topicExchange()).with(MqConstants.HOTEL_INSERT_KEY);
  26. }
  27. @Bean
  28. public Binding deleteQueueBinding(){
  29. return BindingBuilder.bind(deleteQueue()).to(topicExchange()).with(MqConstants.HOTEL_DELETE_KEY);
  30. }
  31. }

3.2.4.发送MQ消息

在hotel-admin中的增、删、改业务中分别发送MQ消息:

3.2.5.接收MQ消息

hotel-demo接收到MQ消息要做的事情包括:

  • 新增消息:根据传递的hotel的id查询hotel信息,然后新增一条数据到索引库

  • 删除消息:根据传递的hotel的id删除索引库中的一条数据

1)首先在hotel-demo的cn.itcast.hotel.service包下的IHotelService中新增新增、删除业务

  1. void deleteById(Long id);
  2. void insertById(Long id);

2)给hotel-demo中的cn.itcast.hotel.service.impl包下的HotelService中实现业务:

  1. @Override
  2. public void deleteById(Long id) {
  3. try {
  4. // 1.准备Request
  5. DeleteRequest request = new DeleteRequest("hotel", id.toString());
  6. // 2.发送请求
  7. client.delete(request, RequestOptions.DEFAULT);
  8. } catch (IOException e) {
  9. throw new RuntimeException(e);
  10. }
  11. }
  12. @Override
  13. public void insertById(Long id) {
  14. try {
  15. // 0.根据id查询酒店数据
  16. Hotel hotel = getById(id);
  17. // 转换为文档类型
  18. HotelDoc hotelDoc = new HotelDoc(hotel);
  19. // 1.准备Request对象
  20. IndexRequest request = new IndexRequest("hotel").id(hotel.getId().toString());
  21. // 2.准备Json文档
  22. request.source(JSON.toJSONString(hotelDoc), XContentType.JSON);
  23. // 3.发送请求
  24. client.index(request, RequestOptions.DEFAULT);
  25. } catch (IOException e) {
  26. throw new RuntimeException(e);
  27. }
  28. }

3)编写监听器

在hotel-demo中的cn.itcast.hotel.mq包新增一个类:

  1. package cn.itcast.hotel.mq;
  2. import cn.itcast.hotel.constants.MqConstants;
  3. import cn.itcast.hotel.service.IHotelService;
  4. import org.springframework.amqp.rabbit.annotation.RabbitListener;
  5. import org.springframework.beans.factory.annotation.Autowired;
  6. import org.springframework.stereotype.Component;
  7. @Component
  8. public class HotelListener {
  9. @Autowired
  10. private IHotelService hotelService;
  11. /**
  12. * 监听酒店新增或修改的业务
  13. * @param id 酒店id
  14. */
  15. @RabbitListener(queues = MqConstants.HOTEL_INSERT_QUEUE)
  16. public void listenHotelInsertOrUpdate(Long id){
  17. hotelService.insertById(id);
  18. }
  19. /**
  20. * 监听酒店删除的业务
  21. * @param id 酒店id
  22. */
  23. @RabbitListener(queues = MqConstants.HOTEL_DELETE_QUEUE)
  24. public void listenHotelDelete(Long id){
  25. hotelService.deleteById(id);
  26. }
  27. }

4.集群

单机的elasticsearch做数据存储,必然面临两个问题:海量数据存储问题、单点故障问题。

  • 海量数据存储问题:将索引库从逻辑上拆分为N个分片(shard),存储到多个节点

  • 单点故障问题:将分片数据在不同节点备份(replica )

ES集群相关概念:

  • 集群(cluster):一组拥有共同的 cluster name 的 节点。

  • 节点(node) :集群中的一个 Elasticearch 实例

  • 分片(shard) :索引可以被拆分为不同的部分进行存储,称为分片

  • 在集群环境下,一个索引的不同分片可以拆分到不同的节点

解决问题:数据量太大,单点存储量有限的问题。

此处,我们把数据分成3片:shard0、shard1、shard2
  • 主分片(Primary shard):相对于副本分片的定义

  • 副本分片(Replica shard)每个主分片可以有一个或者多个副本,数据和主分片一样

数据备份可以保证高可用,但是每个分片备份一份,所需要的节点数量就会翻一倍,成本实在是太高了!

为了在高可用和成本间寻求平衡,我们可以这样做:

  • 首先对数据分片,存储到不同节点

  • 然后对每个分片进行备份,放到对方节点,完成互相备份

这样可以大大减少所需要的服务节点数量,如图,我们以3分片,每个分片备份一份为例:

现在,每个分片都有1个备份,存储在3个节点

  • node0:保存了分片0和1

  • node1:保存了分片0和2

  • node2:保存了分片1和2

4.1.搭建ES集群

参考课前资料的文档:

需要虚拟机内存>4G;我的虚拟机2G 就没做

其中的第四章节:

4.2.集群脑裂问题

4.2.1.集群职责划分

elasticsearch中集群节点有不同的职责划分:

默认情况下,集群中的任何一个节点都同时具备上述四种角色。

但是真实的集群一定要将集群职责分离

  • master节点:对CPU要求高,但是内存要求不特别高

  • data节点:对CPU和内存要求都高

  • coordinating节点:对网络带宽、CPU要求高

职责分离可以让我们根据不同节点的需求分配不同的硬件去部署。而且避免业务之间的互相干扰。

一个典型的es集群职责划分如图:

4.2.2.脑裂问题

脑裂是因为集群中的节点失联导致的。

例如一个集群中,主节点与其它节点失联:

此时,node2和node3认为node1宕机,就会重新选主

当node3当选后,集群继续对外提供服务,node2和node3自成集群,node1自成集群,两个集群数据不同步,出现数据差异

当网络恢复后,因为集群中有两个master节点,集群状态的不一致,出现脑裂的情况:

解决脑裂的方案是,要求选票超过 ( eligible节点数量 + 1 )/ 2 才能当选为主,因此eligible节点数量最好是奇数。对应配置项是discovery.zen.minimum_master_nodes,在es7.0以后,已经成为默认配置,因此一般不会发生脑裂问题

例如:3个节点形成的集群,选票必须超过 (3 + 1) / 2 ,也就是2票。node3得到node2和node3的选票,当选为主。node1只有自己1票,没有当选。集群中依然只有1个主节点,没有出现脑裂。

4.2.3.小结

master eligible节点的作用是什么?

  • 参与集群选主

  • 主节点可以管理集群状态、管理分片信息、处理创建和删除索引库的请求

data节点的作用是什么?

  • 数据的CRUD

coordinator节点的作用是什么?

  • 路由请求到其它节点

  • 合并查询到的结果,返回给用户

4.3.集群分布式存储

当新增文档时,应该保存到不同分片,保证数据均衡,那么coordinating node如何确定数据该存储到哪个分片呢?

4.3.1.分片存储测试

插入三条数据:

测试可以看到,三条数据分别在不同分片

结果:

4.3.2.分片存储原理

elasticsearch会通过hash算法来计算文档应该存储到哪个分片

说明:

  • _routing默认是文档的id

  • 算法与分片数量(number_of_shards)有关,因此索引库一旦创建,分片数量不能修改

新增文档的流程如下:

解读:

  • 1)新增一个id=1的文档

  • 2)对id做hash运算,假如得到的是2,则应该存储到shard-2

  • 3)shard-2的主分片在node3节点,将数据路由到node3

  • 4)保存文档

  • 5)同步给shard-2的副本replica-2,在node2节点

  • 6)返回结果给coordinating-node节点

4.4.集群分布式查询

elasticsearch的查询分成两个阶段:

  • scatter phase:分散阶段,coordinating node会把请求分发到每一个分片

  • gather phase:聚集阶段,coordinating node汇总data node的搜索结果,并处理为最终结果集返回给用户

4.5.集群故障转移

集群的master节点会监控集群中的节点状态,如果发现有节点宕机,会立即将宕机节点的分片数据迁移到其它节点,确保数据安全,这个叫做故障转移

1)例如一个集群结构如图:

现在,node1是主节点,其它两个节点是从节点。

2)突然,node1发生了故障

宕机后的第一件事,需要重新选主,例如选中了node2:

node2成为主节点后,会检测集群监控状态,发现:shard-1、shard-0没有副本节点。因此需要将node1上的数据迁移到node2、node3

微服务保护

1.初识Sentinel

1.1.雪崩问题及解决方案

1.1.1.雪崩问题

微服务中,服务间调用关系错综复杂,一个微服务往往依赖于多个其它微服务。

如图,如果服务提供者I发生了故障,当前的应用的部分业务因为依赖于服务I,因此也会被阻塞。此时,其它不依赖于服务I的业务似乎不受影响。

但是,依赖服务I的业务请求被阻塞,用户不会得到响应,则tomcat的这个线程不会释放,于是越来越多的用户请求到来,越来越多的线程会阻塞

服务器支持的线程和并发数有限,请求一直阻塞,会导致服务器资源耗尽,从而导致所有其它服务都不可用,那么当前服务也就不可用了。

那么,依赖于当前服务的其它服务随着时间的推移,最终也都会变的不可用,形成级联失败,雪崩就发生了:

1.1.2.超时处理

解决雪崩问题的常见方式有四种:

超时处理:设定超时时间,请求超过一定时间没有响应就返回错误信息,不会无休止等待

1.1.3.仓壁模式

方案2:仓壁模式

仓壁模式来源于船舱的设计,

船舱都会被隔板分离为多个独立空间,当船体破损时,只会导致部分空间进入,将故障控制在一定范围内,避免整个船体都被淹没

于此类似,我们可以限定每个业务能使用的线程数,避免耗尽整个tomcat的资源,因此也叫线程隔离。

缺点:资源浪费,明明知道服务C挂了,请求来了还要尝试访问服务C占用线程;

1.1.4.断路器

断路器模式:

断路器统计业务执行的异常比例,如果超出阈值则会熔断该业务,拦截访问该业务的一切请求。

断路器会统计访问某个服务的请求数量,异常比例

当发现访问服务D的请求异常比例过高时,认为服务D有导致雪崩的风险,会拦截访问服务D的一切请求,形成熔断

1.1.5.限流

流量控制限制业务访问的QPS(每秒处理请求的数量),避免服务因流量的突增而故障

1.1.6.总结

什么是雪崩问题?

  • 微服务之间相互调用,因为调用链中的一个服务故障,引起整个链路都无法访问的情况。

可以认为:

限流对服务的保护,避免因瞬间高并发流量而导致服务故障,进而避免雪崩。是一种预防措施。

超时处理、线程隔离、降级熔断是在部分服务故障时,将故障控制在一定范围,避免雪崩。是一种补救措施。

1.2.服务保护技术对比

在SpringCloud当中支持多种服务保护技术:

早期比较流行的是Hystrix框架(已经停止升级与维护),但目前国内实用最广泛的还是阿里巴巴的Sentinel框架,这里我们做下对比:

Sentinel

Hystrix

隔离策略

信号量隔离

线程池隔离/信号量隔离

熔断降级策略

基于慢调用比例或异常比例

基于失败比率

实时指标实现

滑动窗口

滑动窗口(基于 RxJava)

规则配置

支持多种数据源

支持多种数据源

扩展性

多个扩展点

插件的形式

基于注解的支持

支持

支持

限流

基于 QPS,支持基于调用关系的限流

有限的支持

流量整形

支持慢启动、匀速排队模式

不支持

系统自适应保护

支持

不支持

控制台

开箱即用,可配置规则、查看秒级监控、机器发现等

不完善

常见框架的适配

Servlet、Spring Cloud、Dubbo、gRPC 等

Servlet、Spring Cloud Netflix

1.3.Sentinel介绍和安装

1.3.1.初识Sentinel

Sentinel是阿里巴巴开源的一款微服务流量控制组件。

官网地址:home | Sentinel

Sentinel 具有以下特征:

丰富的应用场景:Sentinel 承接了阿里巴巴近 10 年的双十一大促流量的核心场景,例如秒杀(即突发流量控制在系统容量可以承受的范围)、消息削峰填谷、集群流量控制、实时熔断下游不可用应用等。

完备的实时监控:Sentinel 同时提供实时的监控功能。您可以在控制台中看到接入应用的单台机器秒级数据,甚至 500 台以下规模的集群的汇总运行情况。

广泛的开源生态:Sentinel 提供开箱即用的与其它开源框架/库的整合模块,例如与 SpringCloud、Dubbo、gRPC 的整合。您只需要引入相应的依赖并进行简单的配置即可快速地接入 Sentinel。

完善的 SPI 扩展点:Sentinel 提供简单易用、完善的 SPI 扩展接口。您可以通过实现扩展接口来快速地定制逻辑。例如定制规则管理、适配动态数据源等。

1.3.2.安装Sentinel

1)下载

sentinel官方提供了UI控制台,方便我们对系统做限流设置。大家可以在GitHub下载。

课前资料也提供了下载好的jar包:

2)运行

将jar包放到任意非中文目录,执行命令:


<code class="language-plaintext hljs">java -jar sentinel-dashboard-1.8.1.jar</code>

如果要修改Sentinel的默认端口、账户、密码,可以通过下列配置:

配置项

默认值

说明

server.port

8080

服务端口

sentinel.dashboard.auth.username

sentinel

默认用户名

sentinel.dashboard.auth.password

sentinel

默认密码

例如,修改端口:

报错的要,配置jdk8的环境变量;set Path=D:\ItheimaJava\jdk1.8.0_361\bin

报错的在控制台先指定jdk版本。set Path=你的jdk里jre位置\bin


<code class="language-plaintext hljs">java -Dserver.port=8090 -jar sentinel-dashboard-1.8.1.jar</code>

3)访问

访问http://localhost:8080页面,就可以看到sentinel的控制台了:

需要输入账号和密码,默认都是:sentinel

登录后,发现一片空白,什么都没有:

这是因为我们还没有与微服务整合。

修改的话 就-Dserver.port=8090;或者

在jar包目录写一个配置文件就可以了;在包下写个yml 配个server port 就会覆盖了

jar包同级的同名配置文件,优先级比 classpath要高的呀,可以在jar包同级目录里创建配置文件的

更详细的修改配置

1.4.微服务整合Sentinel

先停一下,前面的项目没跑,得跑一下,要不直接做黑马点评吧,感这种“假”微服务没意义

我们在order-service中整合sentinel,并连接sentinel的控制台,步骤如下:

1)引入sentinel依赖

  1. <!--sentinel-->
  2. <dependency>
  3. <groupId>com.alibaba.cloud</groupId>
  4. <artifactId>spring-cloud-starter-alibaba-sentinel</artifactId>
  5. </dependency>

2)配置控制台

修改application.yaml文件,添加下面内容:

  1. server:
  2. port: 8088
  3. spring:
  4. cloud:
  5. sentinel:
  6. transport:
  7. dashboard: localhost:8080

3)访问order-service的任意端点

打开浏览器,访问http://localhost:8088/order/101,这样才能触发sentinel的监控。

然后再访问sentinel的控制台,查看效果:

2.流量控制

雪崩问题虽然有四种方案,但是限流是避免服务因突发的流量而发生故障,是对微服务雪崩问题的预防。我们先学习这种模式。

2.1.簇点链路

当请求进入微服务时,首先会访问DispatcherServlet,然后进入Controller、Service、Mapper,这样的一个调用链就叫做簇点链路。簇点链路中被监控的每一个接口就是一个资源

默认情况下sentinel会监控SpringMVC的每一个端点(Endpoint,也就是controller中的方法),因此SpringMVC的每一个端点(Endpoint)就是调用链路中的一个资源。

例如,我们刚才访问的order-service中的OrderController中的端点:/order/{orderId}

流控、熔断等都是针对簇点链路中的资源来设置的,因此我们可以点击对应资源后面的按钮来设置规则:

  • 流控:流量控制

  • 降级:降级熔断

  • 热点:热点参数限流,是限流的一种

  • 授权:请求的权限控制

2.1.快速入门

2.1.1.示例

点击资源/order/{orderId}后面的流控按钮,就可以弹出表单。

表单中可以填写限流规则,如下:

其含义是限制 /order/{orderId}这个资源的单机QPS为1,即每秒只允许1次请求,超出的请求会被拦截并报错。

2.1.2.练习:

需求:给 /order/{orderId}这个资源设置流控规则,QPS不能超过 5,然后测试。

1)首先在sentinel控制台添加限流规则

 

2)利用jmeter测试

如果没有用过jmeter,可以参考课前资料提供的文档《Jmeter快速入门.md》

课前资料提供了编写好的Jmeter测试样例:

 

打开jmeter,导入课前资料提供的测试样例:

 

选择:

 

20个用户,2秒内运行完,QPS是10,超过了5.

选中流控入门,QPS<5右键运行:

 

注意,不要点击菜单中的执行按钮来运行。

结果:

 

可以看到,成功的请求每次只有5个

2.2.流控模式

在添加限流规则时,点击高级选项,可以选择三种流控模式

  • 直接:统计当前资源的请求,触发阈值时对当前资源直接限流,也是默认的模式

  • 关联:统计与当前资源相关的另一个资源,触发阈值时,对当前资源限流

  • 链路:统计从指定链路访问到本资源的请求,触发阈值时,对指定链路限流

快速入门测试的就是直接模式。

 

2.2.1.关联模式

关联模式:统计与当前资源相关的另一个资源,触发阈值时,对当前资源限流

配置规则

 

语法说明:当/write资源访问量触发阈值时,就会对/read资源限流,避免影响/write资源。

使用场景:比如用户支付时需要修改订单状态,同时用户要查询订单。查询和修改操作会争抢数据库锁,产生竞争。业务需求是优先支付和更新订单的业务,因此当修改订单业务触发阈值时,需要对查询订单业务限流。

需求说明

  • 在OrderController新建两个端点:/order/query和/order/update,无需实现业务

  • 配置流控规则,当/order/ update资源被访问的QPS超过5时,对/order/query请求限流

1)定义/order/query端点,模拟订单查询

  1. @GetMapping("/query")
  2. public String queryOrder() {
  3. return "查询订单成功";
  4. }

2)定义/order/update端点,模拟订单更新

  1. @GetMapping("/update")
  2. public String updateOrder() {
  3. return "更新订单成功";
  4. }

重启服务,查看sentinel控制台的簇点链路:

 

3)配置流控规则

对哪个端点限流,就点击哪个端点后面的按钮。我们是对订单查询/order/query限流,因此点击它后面的按钮:

 

在表单中填写流控规则:

 

4)在Jmeter测试

选择《流控模式-关联》:

 

可以看到1000个用户,100秒,因此QPS为10,超过了我们设定的阈值:5

查看http请求:

 

请求的目标是/order/update,这样这个断点就会触发阈值。

但限流的目标是/order/query,我们在浏览器访问,可以发现:

 

确实被限流了。

5)总结

 

2.2.2.链路模式

链路模式:只针对从指定链路访问到本资源的请求做统计,判断是否超过阈值。

配置示例

例如有两条请求链路:

  • /test1 --> /common

  • /test2 --> /common

如果只希望统计从/test2进入到/common的请求,则可以这样配置:

 

实战案例

需求:有查询订单和创建订单业务,两者都需要查询商品。针对从查询订单进入到查询商品的请求统计,并设置限流。

步骤:

  1. 在OrderService中添加一个queryGoods方法,不用实现业务

  2. 在OrderController中,改造/order/query端点,调用OrderService中的queryGoods方法

  3. 在OrderController中添加一个/order/save的端点,调用OrderService的queryGoods方法

  4. 给queryGoods设置限流规则,从/order/query进入queryGoods的方法限制QPS必须小于2

实现:

1)添加查询商品方法

在order-service服务中,给OrderService类添加一个queryGoods方法:

  1. public void queryGoods(){
  2. System.err.println("查询商品");
  3. }
2)查询订单时,查询商品

在order-service的OrderController中,修改/order/query端点的业务逻辑:

  1. @GetMapping("/query")
  2. public String queryOrder() {
  3. // 查询商品
  4. orderService.queryGoods();
  5. // 查询订单
  6. System.out.println("查询订单");
  7. return "查询订单成功";
  8. }
3)新增订单,查询商品

在order-service的OrderController中,修改/order/save端点,模拟新增订单:

  1. @GetMapping("/save")
  2. public String saveOrder() {
  3. // 查询商品
  4. orderService.queryGoods();
  5. // 查询订单
  6. System.err.println("新增订单");
  7. return "新增订单成功";
  8. }
4)给查询商品添加资源标记

默认情况下,OrderService中的方法是不被Sentinel监控的,需要我们自己通过注解来标记要监控的方法。

给OrderService的queryGoods方法添加@SentinelResource注解:

  1. @SentinelResource("goods")
  2. public void queryGoods(){
  3. System.err.println("查询商品");
  4. }

链路模式中,是对不同来源的两个链路做监控。但是sentinel默认会给进入SpringMVC的所有请求设置同一个root资源,会导致链路模式失效。

我们需要关闭这种对SpringMVC的资源聚合,修改order-service服务的application.yml文件:

  1. spring:
  2. cloud:
  3. sentinel:
  4. web-context-unify: false # 关闭context整合

重启服务,访问/order/query和/order/save,可以查看到sentinel的簇点链路规则中,出现了新的资源:

 

5)添加流控规则

点击goods资源后面的流控按钮,在弹出的表单中填写下面信息:

只统计从/order/query进入/goods的资源,QPS阈值为2,超出则被限流。

6)Jmeter测试

选择《流控模式-链路》:

 

可以看到这里200个用户,50秒内发完,QPS为4,超过了我们设定的阈值2

一个http请求是访问/order/save:

 

运行的结果:

 

完全不受影响。

另一个是访问/order/query:

 

运行结果:

 

 

每次只有2个通过。

2.2.3.总结

流控模式有哪些?

•直接:对当前资源限流

•关联:高优先级资源触发阈值,对低优先级资源限流。

•链路:阈值统计时,只统计从指定资源进入当前资源的请求,是对请求来源的限流

2.3.流控效果

在流控的高级选项中,还有一个流控效果选项:


流控效果是指请求达到流控阈值时应该采取的措施,包括三种:

  • 快速失败:达到阈值后,新的请求会被立即拒绝并抛出FlowException异常。是默认的处理方式。

  • warm up:预热模式,对超出阈值的请求同样是拒绝并抛出异常。但这种模式阈值会动态变化,从一个较小值逐渐增加到最大阈值。

  • 排队等待:让所有的请求按照先后次序排队执行,两个请求的间隔不能小于指定时长

2.3.1.warm up

阈值一般是一个微服务能承担的最大QPS,但是一个服务刚刚启动时,一切资源尚未初始化(冷启动),如果直接将QPS跑到最大值,可能导致服务瞬间宕机。

warm up也叫预热模式,是应对服务冷启动的一种方案。请求阈值初始值是 maxThreshold / coldFactor,持续指定时长后,逐渐提高到maxThreshold值。而coldFactor的默认值是3.

例如,我设置QPS的maxThreshold为10,预热时间为5秒,那么初始阈值就是 10 / 3 ,也就是3,然后在5秒后逐渐增长到10.

 

案例

需求:给/order/{orderId}这个资源设置限流,最大QPS为10,利用warm up效果,预热时长为5秒

1)配置流控规则:

 

2)Jmeter测试

选择《流控效果,warm up》:

 

QPS为10.

刚刚启动时,大部分请求失败,成功的只有3个,说明QPS被限定在3:

 

随着时间推移,成功比例越来越高:

 

到Sentinel控制台查看实时监控:

 

 

一段时间后:

2.3.2.排队等待

当请求超过QPS阈值时,快速失败和warm up 会拒绝新的请求并抛出异常。

而排队等待则是让所有请求进入一个队列中,然后按照阈值允许的时间间隔依次执行。后来的请求必须等待前面执行完成,如果请求预期的等待时间超出最大时长,则会被拒绝。

工作原理

例如:QPS = 5,意味着每200ms处理一个队列中的请求;timeout = 2000,意味着预期等待时长超过2000ms的请求会被拒绝并抛出异常。

那什么叫做预期等待时长呢?

比如现在一下子来了12 个请求,因为每200ms执行一个请求,那么:

  • 第6个请求的预期等待时长 = 200 * (6 - 1) = 1000ms

  • 第12个请求的预期等待时长 = 200 * (12-1) = 2200ms

现在,第1秒同时接收到10个请求,但第2秒只有1个请求,此时QPS的曲线这样的:

 

如果使用队列模式做流控,所有进入的请求都要排队,以固定的200ms的间隔执行,QPS会变的很平滑:

 

平滑的QPS曲线,对于服务器来说是更友好的。

案例

需求:给/order/{orderId}这个资源设置限流,最大QPS为10,利用排队的流控效果,超时时长设置为5s

1)添加流控规则

 

2)Jmeter测试

选择《流控效果,队列》:

 

QPS为15,已经超过了我们设定的10。

如果是之前的 快速失败、warmup模式,超出的请求应该会直接报错。

但是我们看看队列模式的运行结果:

 

全部都通过了。

再去sentinel查看实时监控的QPS曲线:

 

QPS非常平滑,一致保持在10,但是超出的请求没有被拒绝,而是放入队列。因此响应时间(等待时间)会越来越长。

当队列满了以后,才会有部分请求失败:

 

2.3.3.总结

流控效果有哪些?

  • 快速失败:QPS超过阈值时,拒绝新的请求

  • warm up: QPS超过阈值时,拒绝新的请求;QPS阈值是逐渐提升的,可以避免冷启动时高并发导致服务宕机。

  • 排队等待:请求会进入队列,按照阈值允许的时间间隔依次执行请求;如果请求预期等待时长大于超时时间,直接拒绝

2.4.热点参数限流

之前的限流是统计访问某个资源的所有请求,判断是否超过QPS阈值。而热点参数限流是分别统计参数值相同的请求,判断是否超过QPS阈值。

2.4.1.全局参数限流

例如,一个根据id查询商品的接口:

 

访问/goods/{id}的请求中,id参数值会有变化,热点参数限流会根据参数值分别统计QPS,统计结果:

 

当id=1的请求触发阈值被限流时,id值不为1的请求不受影响。

配置示例:

 

代表的含义是:对hot这个资源的0号参数(第一个参数)做统计,每1秒相同参数值的请求数不能超过5

2.4.2.热点参数限流

刚才的配置中,对查询商品这个接口的所有商品一视同仁,QPS都限定为5.

而在实际开发中,可能部分商品是热点商品,例如秒杀商品,我们希望这部分商品的QPS限制与其它商品不一样,高一些。那就需要配置热点参数限流的高级选项了:

 

结合上一个配置,这里的含义是对0号的long类型参数限流,每1秒相同参数的QPS不能超过5,有两个例外:

•如果参数值是100,则每1秒允许的QPS为10

•如果参数值是101,则每1秒允许的QPS为15

2.4.4.案例

案例需求:给/order/{orderId}这个资源添加热点参数限流,规则如下:

•默认的热点参数规则是每1秒请求量不超过2

•给102这个参数设置例外:每1秒请求量不超过4

•给103这个参数设置例外:每1秒请求量不超过10

注意事项:热点参数限流对默认的SpringMVC资源无效,需要利用@SentinelResource注解标记资源

1)标记资源

给order-service中的OrderController中的/order/{orderId}资源添加注解:

 

2)热点参数限流规则

访问该接口,可以看到我们标记的hot资源出现了:

 

这里不要点击hot后面的按钮,页面有BUG

点击左侧菜单中热点规则菜单:

 

点击新增,填写表单:

 

3)Jmeter测试

选择《热点参数限流 QPS1》:

 

这里发起请求的QPS为5.

包含3个http请求:

普通参数,QPS阈值为2

 

运行结果:

 

例外项,QPS阈值为4

 

运行结果:

 

例外项,QPS阈值为10

 

运行结果:

 

3.隔离和降级

限流是一种预防措施,虽然限流可以尽量避免因高并发而引起的服务故障,但服务还会因为其它原因而故障。

而要将这些故障控制在一定范围,避免雪崩,就要靠线程隔离(舱壁模式)和熔断降级手段了。

线程隔离之前讲到过:调用者在调用服务提供者时,给每个调用的请求分配独立线程池,出现故障时,最多消耗这个线程池内资源,避免把调用者的所有资源耗尽。

 

熔断降级:是在调用方这边加入断路器,统计对服务提供者的调用,如果调用的失败比例过高,则熔断该业务,不允许访问该服务的提供者了。

 

可以看到,不管是线程隔离还是熔断降级,都是对客户端(调用方)的保护。需要在调用方 发起远程调用时做线程隔离、或者服务熔断。

而我们的微服务远程调用都是基于Feign来完成的,因此我们需要将Feign与Sentinel整合,在Feign里面实现线程隔离和服务熔断。

3.1.FeignClient整合Sentinel

SpringCloud中,微服务调用都是通过Feign来实现的,因此做客户端保护必须整合Feign和Sentinel。

3.1.1.修改配置,开启sentinel功能

修改OrderService的application.yml文件,开启Feign的Sentinel功能:

  1. feign:
  2. sentinel:
  3. enabled: true # 开启feign对sentinel的支持

3.1.2.编写失败降级逻辑

业务失败后,不能直接报错,而应该返回用户一个友好提示或者默认结果,这个就是失败降级逻辑。

给FeignClient编写失败后的降级逻辑

①方式一:FallbackClass,无法对远程调用的异常做处理

②方式二:FallbackFactory,可以对远程调用的异常做处理,我们选择这种

这里我们演示方式二的失败降级处理。

步骤一:在feing-api项目中定义类,实现FallbackFactory:

 

代码:

  1. package cn.itcast.feign.clients.fallback;
  2. import cn.itcast.feign.clients.UserClient;
  3. import cn.itcast.feign.pojo.User;
  4. import feign.hystrix.FallbackFactory;
  5. import lombok.extern.slf4j.Slf4j;
  6. @Slf4j
  7. public class UserClientFallbackFactory implements FallbackFactory<UserClient> {
  8. @Override
  9. public UserClient create(Throwable throwable) {
  10. return new UserClient() {
  11. @Override
  12. public User findById(Long id) {
  13. log.error("查询用户异常", throwable);
  14. return new User();
  15. }
  16. };
  17. }
  18. }

步骤二:在feing-api项目中的DefaultFeignConfiguration类中将UserClientFallbackFactory注册为一个Bean:

  1. @Bean
  2. public UserClientFallbackFactory userClientFallbackFactory(){
  3. return new UserClientFallbackFactory();
  4. }

步骤三:在feing-api项目中的UserClient接口中使用UserClientFallbackFactory:

  1. import cn.itcast.feign.clients.fallback.UserClientFallbackFactory;
  2. import cn.itcast.feign.pojo.User;
  3. import org.springframework.cloud.openfeign.FeignClient;
  4. import org.springframework.web.bind.annotation.GetMapping;
  5. import org.springframework.web.bind.annotation.PathVariable;
  6. @FeignClient(value = "userservice", fallbackFactory = UserClientFallbackFactory.class)
  7. public interface UserClient {
  8. @GetMapping("/user/{id}")
  9. User findById(@PathVariable("id") Long id);
  10. }

重启后,访问一次订单查询业务,然后查看sentinel控制台,可以看到新的簇点链路:

3.1.3.总结

Sentinel支持的雪崩解决方案:

  • 线程隔离(仓壁模式)

  • 降级熔断

Feign整合Sentinel的步骤:

  • 在application.yml中配置:feign.sentienl.enable=true

  • 给FeignClient编写FallbackFactory并注册为Bean

  • 将FallbackFactory配置到FeignClient

3.2.线程隔离(舱壁模式)

3.2.1.线程隔离的实现方式

线程隔离有两种方式实现:

  • 线程池隔离

  • 信号量隔离(Sentinel默认采用)

如图:

 

线程池隔离:给每个服务调用业务分配一个线程池,利用线程池本身实现隔离效果

信号量隔离:不创建线程池,而是计数器模式,记录业务使用的线程数量,达到信号量上限时,禁止新的请求。

两者的优缺点:

 

3.2.2.sentinel的线程隔离

用法说明

在添加限流规则时,可以选择两种阈值类型:

 

  • QPS:就是每秒的请求数,在快速入门中已经演示过

  • 线程数:是该资源能使用用的tomcat线程数的最大值。也就是通过限制线程数量,实现线程隔离(舱壁模式)。

案例需求:给 order-service服务中的UserClient的查询用户接口设置流控规则,线程数不能超过 2。然后利用jemeter测试。

1)配置隔离规则

选择feign接口后面的流控按钮:

 

填写表单:

 

2)Jmeter测试

选择《阈值类型-线程数<2》:

 

一次发生10个请求,有较大概率并发线程数超过2,而超出的请求会走之前定义的失败降级逻辑。

查看运行结果:

 

发现虽然结果都是通过了,不过部分请求得到的响应是降级返回的null信息。

3.2.3.总结

线程隔离的两种手段是?

  • 信号量隔离

  • 线程池隔离

信号量隔离的特点是?

  • 基于计数器模式,简单,开销小

线程池隔离的特点是?

  • 基于线程池模式,有额外开销,但隔离控制更强

3.3.熔断降级

熔断降级是解决雪崩问题的重要手段。其思路是由断路器统计服务调用的异常比例、慢请求比例,如果超出阈值则会熔断该服务。即拦截访问该服务的一切请求;而当服务恢复时,断路器会放行访问该服务的请求。

断路器控制熔断和放行是通过状态机来完成的:

 

状态机包括三个状态:

  • closed:关闭状态,断路器放行所有请求,并开始统计异常比例、慢请求比例。超过阈值则切换到open状态

  • open:打开状态,服务调用被熔断,访问被熔断服务的请求会被拒绝,快速失败,直接走降级逻辑。Open状态5秒后会进入half-open状态

  • half-open:半开状态,放行一次请求,根据执行结果来判断接下来的操作。

  • 请求成功:则切换到closed状态

  • 请求失败:则切换到open状态

断路器熔断策略有三种:慢调用、异常比例、异常数

3.3.1.慢调用

慢调用:业务的响应时长(RT)大于指定时长的请求认定为慢调用请求。在指定时间内,如果请求数量超过设定的最小数量,慢调用比例大于设定的阈值,则触发熔断。

例如:

 

解读:RT超过500ms的调用是慢调用,统计最近10000ms内的请求,如果请求量超过10次,并且慢调用比例不低于0.5,则触发熔断,熔断时长为5秒。然后进入half-open状态,放行一次请求做测试。

案例

需求:给 UserClient的查询用户接口设置降级规则,慢调用的RT阈值为50ms,统计时间为1秒,最小请求数量为5,失败阈值比例为0.4,熔断时长为5

1)设置慢调用

修改user-service中的/user/{id}这个接口的业务。通过休眠模拟一个延迟时间:

 

此时,orderId=101的订单,关联的是id为1的用户,调用时长为60ms:

 

orderId=102的订单,关联的是id为2的用户,调用时长为非常短;

 

2)设置熔断规则

下面,给feign接口设置降级规则:

 

规则:

 

超过50ms的请求都会被认为是慢请求

3)测试

在浏览器访问:http://localhost:8088/order/101,快速刷新5次,可以发现:

 

触发了熔断,请求时长缩短至5ms,快速失败了,并且走降级逻辑,返回的null

在浏览器访问:http://localhost:8088/order/102,竟然也被熔断了:

 

3.3.2.异常比例、异常数

异常比例或异常数:统计指定时间内的调用,如果调用次数超过指定请求数,并且出现异常的比例达到设定的比例阈值(或超过指定异常数),则触发熔断。

例如,一个异常比例设置:

 

解读:统计最近1000ms内的请求,如果请求量超过10次,并且异常比例不低于0.4,则触发熔断。

一个异常数设置:

解读:统计最近1000ms内的请求,如果请求量超过10次,并且异常比例不低于2次,则触发熔断。

案例

需求:给 UserClient的查询用户接口设置降级规则,统计时间为1秒,最小请求数量为5,失败阈值比例为0.4,熔断时长为5s

1)设置异常请求

首先,修改user-service中的/user/{id}这个接口的业务。手动抛出异常,以触发异常比例的熔断:

 

也就是说,id 为 2时,就会触发异常

2)设置熔断规则

下面,给feign接口设置降级规则:

 

规则:

 

在5次请求中,只要异常比例超过0.4,也就是有2次以上的异常,就会触发熔断。

3)测试

在浏览器快速访问:http://localhost:8088/order/102,快速刷新5次,触发熔断:

 

此时,我们去访问本来应该正常的103:

 

4.授权规则

授权规则可以对请求方来源做判断和控制。

4.1.授权规则

4.1.1.基本规则

授权规则可以对调用方的来源做控制,有白名单和黑名单两种方式。

  • 白名单:来源(origin)在白名单内的调用者允许访问

  • 黑名单:来源(origin)在黑名单内的调用者不允许访问

点击左侧菜单的授权,可以看到授权规则:

 

  • 资源名:就是受保护的资源,例如/order/{orderId}

  • 流控应用:是来源者的名单,

  • 如果是勾选白名单,则名单中的来源被许可访问。

  • 如果是勾选黑名单,则名单中的来源被禁止访问。

比如:

 

我们允许请求从gateway到order-service,不允许浏览器访问order-service,那么白名单中就要填写网关的来源名称(origin)

4.1.2.如何获取origin

Sentinel是通过RequestOriginParser这个接口的parseOrigin来获取请求的来源的。

  1. public interface RequestOriginParser {
  2. /**
  3. * 从请求request对象中获取origin,获取方式自定义
  4. */
  5. String parseOrigin(HttpServletRequest request);
  6. }

这个方法的作用就是从request对象中,获取请求者的origin值并返回。

默认情况下,sentinel不管请求者从哪里来,返回值永远是default,也就是说一切请求的来源都被认为是一样的值default。

因此,我们需要自定义这个接口的实现,让不同的请求,返回不同的origin

例如order-service服务中,我们定义一个RequestOriginParser的实现类:

  1. package cn.itcast.order.sentinel;
  2. import com.alibaba.csp.sentinel.adapter.spring.webmvc.callback.RequestOriginParser;
  3. import org.springframework.stereotype.Component;
  4. import org.springframework.util.StringUtils;
  5. import javax.servlet.http.HttpServletRequest;
  6. @Component
  7. public class HeaderOriginParser implements RequestOriginParser {
  8. @Override
  9. public String parseOrigin(HttpServletRequest request) {
  10. // 1.获取请求头
  11. String origin = request.getHeader("origin");
  12. // 2.非空判断
  13. if (StringUtils.isEmpty(origin)) {
  14. origin = "blank";
  15. }
  16. return origin;
  17. }
  18. }

我们会尝试从request-header中获取origin值。

4.1.3.给网关添加请求头

既然获取请求origin的方式是从reques-header中获取origin值,我们必须让所有从gateway路由到微服务的请求都带上origin头

这个需要利用之前学习的一个GatewayFilter来实现,AddRequestHeaderGatewayFilter。

修改gateway服务中的application.yml,添加一个defaultFilter:

  1. spring:
  2. cloud:
  3. gateway:
  4. default-filters:
  5. - AddRequestHeader=origin,gateway
  6. routes:
  7. # ...略

这样,从gateway路由的所有请求都会带上origin头,值为gateway。而从其它地方到达微服务的请求则没有这个头。

4.1.4.配置授权规则

接下来,我们添加一个授权规则,放行origin值为gateway的请求。

 

配置如下:

现在,我们直接跳过网关,访问order-service服务:

 

通过网关访问:

 

4.2.自定义异常结果

默认情况下,发生限流、降级、授权拦截时,都会抛出异常到调用方。异常结果都是flow limmiting(限流)。这样不够友好,无法得知是限流还是降级还是授权拦截。

4.2.1.异常类型

而如果要自定义异常时的返回结果,需要实现BlockExceptionHandler接口:

  1. public interface BlockExceptionHandler {
  2. /**
  3. * 处理请求被限流、降级、授权拦截时抛出的异常:BlockException
  4. */
  5. void handle(HttpServletRequest request, HttpServletResponse response, BlockException e) throws Exception;
  6. }

这个方法有三个参数:

  • HttpServletRequest request:request对象

  • HttpServletResponse response:response对象

  • BlockException e:被sentinel拦截时抛出的异常

这里的BlockException包含多个不同的子类:

异常

说明

FlowException

限流异常

ParamFlowException

热点参数限流的异常

DegradeException

降级异常

AuthorityException

授权规则异常

SystemBlockException

系统规则异常

4.2.2.自定义异常处理

下面,我们就在order-service定义一个自定义异常处理类:

  1. package cn.itcast.order.sentinel;
  2. import com.alibaba.csp.sentinel.adapter.spring.webmvc.callback.BlockExceptionHandler;
  3. import com.alibaba.csp.sentinel.slots.block.BlockException;
  4. import com.alibaba.csp.sentinel.slots.block.authority.AuthorityException;
  5. import com.alibaba.csp.sentinel.slots.block.degrade.DegradeException;
  6. import com.alibaba.csp.sentinel.slots.block.flow.FlowException;
  7. import com.alibaba.csp.sentinel.slots.block.flow.param.ParamFlowException;
  8. import org.springframework.stereotype.Component;
  9. import javax.servlet.http.HttpServletRequest;
  10. import javax.servlet.http.HttpServletResponse;
  11. @Component
  12. public class SentinelExceptionHandler implements BlockExceptionHandler {
  13. @Override
  14. public void handle(HttpServletRequest request, HttpServletResponse response, BlockException e) throws Exception {
  15. String msg = "未知异常";
  16. int status = 429;
  17. if (e instanceof FlowException) {
  18. msg = "请求被限流了";
  19. } else if (e instanceof ParamFlowException) {
  20. msg = "请求被热点参数限流";
  21. } else if (e instanceof DegradeException) {
  22. msg = "请求被降级了";
  23. } else if (e instanceof AuthorityException) {
  24. msg = "没有权限访问";
  25. status = 401;
  26. }
  27. response.setContentType("application/json;charset=utf-8");
  28. response.setStatus(status);
  29. response.getWriter().println("{\"msg\": " + msg + ", \"status\": " + status + "}");
  30. }
  31. }

重启测试,在不同场景下,会返回不同的异常消息.

5.规则持久化

现在,sentinel的所有规则都是内存存储,重启后所有规则都会丢失。在生产环境下,我们必须确保这些规则的持久化,避免丢失。

5.1.规则管理模式

规则是否能持久化,取决于规则管理模式,sentinel支持三种规则管理模式:

  • 原始模式:Sentinel的默认模式,将规则保存在内存,重启服务会丢失。

  • pull模式

  • push模式

5.1.1.pull模式

pull模式:控制台将配置的规则推送到Sentinel客户端,而客户端会将配置规则保存在本地文件或数据库中。以后会定时去本地文件或数据库中查询,更新本地规则。

5.1.2.push模式

push模式:控制台将配置规则推送到远程配置中心,例如Nacos。Sentinel客户端监听Nacos,获取配置变更的推送消息,完成本地配置更新。

5.2.实现push模式

详细步骤可以参考课前资料的《sentinel规则持久化》:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/68183?site
推荐阅读
相关标签
  

闽ICP备14008679号