当前位置:   article > 正文

黑马点评学习笔记_黑马点评小抄

黑马点评小抄

一、项目详情

2、短信登录

2.1 发送验证码

  1. public Result sendCode(String phone, HttpSession session) {
  2. //1.校验验证码
  3. if(RegexUtils.isPhoneInvalid(phone)){
  4. //2.错误则直接返回
  5. return Result.fail("手机号格式错误");
  6. }
  7. //3. 生成验证码
  8. String code = RandomUtil.randomNumbers(6);
  9. //4.保存验证码到redis
  10. stringRedisTemplate.opsForValue().set(LOGIN_CODE_KEY + phone, code, LOGIN_CODE_TTL, TimeUnit.MINUTES);
  11. //5.发送验证码
  12. log.debug("验证码为:{}", code);
  13. //6.
  14. return Result.ok();
  15. }

2.2 验证码登录

验证码登录逻辑:
1.校验提交过来的手机号是否为空
2.获取表单提交过来的手机号和验证码
3.根据key获取redis存的验证码
4.验证码匹配判断
5.不匹配,直接返回提示信息
6.匹配,根据phone查询用户信息
7.判断用户是否存在
8.不存在,创建该用户到数据库中
9.将用户信息存入redis
重点来了
9.1生成随机的token
9.2将User对象转为HashMap存储(用户后续以hash形式在redis中保存)
9.3存入redis中
9.4设置key有效时间
注意:这里设置key的有效时间是死的,就是不管如何,到时间就key就失效,而我们想要的效果是和session一样,每次登录后,key的有效时间就刷新,只有一直不登录时间达到了设置的时间才会失效(这项功能在拦截器里去实现)
10.返回token

  1. //7.保存用户信息到redis
  2. //7.1 使用UUID生成token,作为用户登录令牌
  3. String token = UUID.randomUUID(true).toString(true);
  4. //7.2 将user转为map
  5. UserDTO userDTO = BeanUtil.copyProperties(user, UserDTO.class);
  6. Map<String, Object> map = BeanUtil.beanToMap(userDTO, new HashMap<>(),
  7. CopyOptions.create().setIgnoreNullValue(true).setFieldValueEditor((fieldName, fieldValue) ->
  8. fieldValue.toString()));
  9. //7.3 存储
  10. String userToken = LOGIN_USER_KEY + token;
  11. stringRedisTemplate.opsForHash().putAll(userToken, map);
  12. //7.4 设置token有效期
  13. stringRedisTemplate.expire(userToken, LOGIN_USER_TTL, TimeUnit.MINUTES);
  14. return Result.ok(token);

2.3 登录校验拦截器

前端发送的请求需要把登录用户的基本信息封装传递过去,获取当前登录的用户并返回

如何获取登录用户的信息?

使用ThreadLocal。登录时将用户信息存入UserHolder,验证时从中取出再验证

  1. public class UserHolder {
  2. private static final ThreadLocal<UserDTO> tl = new ThreadLocal<>();
  3. public static void saveUser(UserDTO user){
  4. tl.set(user);
  5. }
  6. public static UserDTO getUser(){
  7. return tl.get();
  8. }
  9. public static void removeUser(){
  10. tl.remove();
  11. }
  12. }

如果直接传递一个user对象,会造成信息泄露,用户的所有信息随着请求提交都可以在负载中看到

创建一个userDto,只定义几个简单属性,只显示一些公开字段,不会泄露密码等敏感信息,返回的时候也是返回userDto对象。

集群模式下session共享存在的问题由于session不适合集群模式,就是好几个tomcat服务器,运行时采用轮询策略,每个请求处理的服务器不同,不可能每个服务器都存一份session的用户数据,同份数据存多次,既造成了访问延迟数据更新不及时,也造成了内存浪费。而redis是非常适合的,redis支持横向扩展。

使用redis代替session作为缓存后,无法从客户端发送的请求来获取key,在不明确key的情况下,无法获取存入的value值,如下是使用redis缓存来代替session存user

 我们使用token来作为唯一key值,token是自动生成且不重复的值(前端做了处理:请求时请求头会带上token信息)

至此我们获取到了对象信息,但是不只一个业务需要获取登录用户的信息,比如发布博客,发表评论,都需要获取用户名称等信息。我们也不可能每个业务都去添加这段代码,要想再方法执行前统一做一些操作,就用到了我们的拦截器,也可以拦截未登录用户。

如果要使用redis作为缓存对象信息,首先拦截器要获取到stringRedisTemplate对象,才能调用缓存api

这里不能使用autowried或resource的原因,这个类的对象是在注入拦截器时,自己new出来的,不是由spring创建的,用构造器注入

而注入拦截器的MvcConfig是由spring构建的,它可以使用自动装配,所以在这里获取stringRedisTemplate,在new的时候作为形参传进

  1. @Configuration
  2. public class mvcConfig implements WebMvcConfigurer {
  3. @Resource
  4. private StringRedisTemplate stringRedisTemplate;
  5. @Override
  6. public void addInterceptors(InterceptorRegistry registry) {
  7. //拦截器顺序为RefreshTokenInterceptor->LoginInterceptor
  8. registry.addInterceptor(new LoginInterceptor())
  9. .excludePathPatterns(
  10. "/shop/**",
  11. "/voucher/**",
  12. "/shop-type/**",
  13. "/upload/**",
  14. "/blog/hot",
  15. "/user/code",
  16. "/user/login"
  17. ).order(1);
  18. registry.addInterceptor(new RefreshTokenInterceptor(stringRedisTemplate)).order(0);
  19. }
  20. }
  1. public class LoginInterceptor implements HandlerInterceptor {
  2. @Override
  3. public boolean preHandle(HttpServletRequest request, HttpServletResponse response, Object handler) throws Exception {
  4. //通过判断ThreadLocal是否有用户判断需要拦截
  5. if(UserHolder.getUser() == null){
  6. response.setStatus(401);
  7. return false;
  8. }
  9. return true;
  10. }
  11. @Override
  12. public void afterCompletion(HttpServletRequest request, HttpServletResponse response, Object handler, Exception ex) throws Exception {
  13. UserHolder.removeUser();
  14. }
  15. }

解决登录状态刷新问题

问题原因,之前是在LoginInterceptor中刷新token,但是该拦截器并不是拦截所有路径,只拦截了那些需要用户登录的路径,这样的话就会存在一个问题:如果一直访问哪些不需要登录就能访问的路径,Token就不会刷新。解决:添加一个拦截所有路径的刷新拦截器,并将原有的LoginInterceptor中除了判断用户是否登录之外的逻辑放到该拦截器中

  1. public class RefreshTokenInterceptor implements HandlerInterceptor {
  2. private StringRedisTemplate stringRedisTemplate;
  3. public RefreshTokenInterceptor(StringRedisTemplate stringRedisTemplate){
  4. this.stringRedisTemplate = stringRedisTemplate;
  5. }
  6. @Override
  7. public boolean preHandle(HttpServletRequest request, HttpServletResponse response, Object handler) throws Exception {
  8. //1.获取token
  9. String token = request.getHeader("authorization");
  10. if(token == null){
  11. return true;
  12. }
  13. //2.查询用户
  14. Map<Object, Object> map = stringRedisTemplate.opsForHash().entries(LOGIN_USER_KEY + token);
  15. //3.保存用户信息到ThreadLocal
  16. if(map.isEmpty()){
  17. return true;
  18. }
  19. UserDTO userDTO = BeanUtil.fillBeanWithMap(map, new UserDTO(), false);
  20. UserHolder.saveUser(userDTO);
  21. //4.刷新token有效期
  22. stringRedisTemplate.expire(LOGIN_USER_KEY + token, LOGIN_USER_TTL, TimeUnit.MINUTES);
  23. //5.放行
  24. return true;
  25. }
  26. @Override
  27. public void afterCompletion(HttpServletRequest request, HttpServletResponse response, Object handler, Exception ex) throws Exception {
  28. UserHolder.removeUser();
  29. }
  30. }

登录验证总结:以前用的是session,用户登录后将数据放在session中,拦截器那边判断登录验证,可以根据请求传来的cookie获取session-id,从而获取数据
使用redis后,就不能根据请求获取key了,这里用到前端的token来作为key,登录时存入数据。

首先是刷新token拦截器拦截,若Redis中有该Token,将用户信息存入ThreadLocal,刷新token有效期,进入后续登录拦截器;否则直接到登录拦截器。

登录拦截器做登录验证时,判断ThreadLocal是否有用户,来判断是否拦截
而存入ThreadLocal中,是因为后续业务需要获取到用户信息

还存在的问题:

目前的做法是刷新拦截器只要拦截到请求,就会对Redis中的LOGIN_USER_KEY+token进行续期并将userDTO存入ThreadLocal中。这样的话设置的过期时间没什么用(因为会一直刷新)

解决方法:设置一个阈值,剩余过期时间少于该阈值时进行刷新操作

为什么要采用即将过期这种做法?假设设置成剩余过期时间为0时才进行刷新操作,这样的话可能存在刷新不上的问题()

三、商家查询缓存

3.1 添加商家缓存

在查询一个商家后,将查询到的信息缓存到redis中,方便后续查询

  1. public Result queryById(Long id) {
  2. //1. 从redis查询商铺缓存, 可以用sting,也可以用hash
  3. String key = CACHE_SHOP_KEY + id;
  4. String shopJson = stringRedisTemplate.opsForValue().get(key);
  5. //2. 存在,直接返回
  6. if(StrUtil.isNotBlank(shopJson)){
  7. Shop shop = JSONUtil.toBean(shopJson, Shop.class);
  8. return Result.ok(shop);
  9. }
  10. //3. 缓存不存在,查询数据库
  11. Shop shop = getById(id);
  12. //4. 数据库中不存在,返回错误
  13. if(shop == null){
  14. return Result.fail("店铺不存在!");
  15. }
  16. //5. 数据库中存在, 写入redis
  17. stringRedisTemplate.opsForValue().set(key, JSONUtil.toJsonStr(shop));
  18. stringRedisTemplate.expire(key, CACHE_SHOP_TTL, TimeUnit.MINUTES);
  19. //6. 返回
  20. return Result.ok(shop);
  21. }

3.2 首页列表缓存

首页的这块列表信息是不变动的,因此我们可以将它存入缓存中,避免每次访问时都去查询数据库

这里使用 List结构(其他的类型如String和Zset都可以)存储商铺类型,并设为永不过期

  1. @Service
  2. public class ShopTypeServiceImpl extends ServiceImpl<ShopTypeMapper, ShopType> implements IShopTypeService {
  3. @Resource
  4. private StringRedisTemplate stringRedisTemplate;
  5. @Override
  6. public Result queryTypeList() {
  7. //1.查询redis
  8. String key = CACHE_SHOP_KEY + "TypeList";
  9. List<String> jsonShopTypeList = stringRedisTemplate.opsForList().range(key, 0, -1);
  10. //2.存在则直接返回
  11. if(jsonShopTypeList != null && !jsonShopTypeList.isEmpty()){
  12. //将string转成shopType类型
  13. ArrayList<ShopType> shopTypeList = new ArrayList<>();
  14. for(String json : jsonShopTypeList){
  15. shopTypeList.add(JSONUtil.toBean(json, ShopType.class));
  16. }
  17. return Result.ok(shopTypeList);
  18. }
  19. //3.不存在,查询数据库
  20. List<ShopType> shopTypeList = query().orderByAsc("sort").list();
  21. //4.数据库中不存在
  22. if(shopTypeList == null){
  23. return Result.fail("不存在店铺类型列表");
  24. }
  25. //5.加入缓存
  26. for(ShopType shopType : shopTypeList){
  27. stringRedisTemplate.opsForList().rightPush(key, JSONUtil.toJsonStr(shopType));
  28. }
  29. //5.返回
  30. return Result.ok(shopTypeList);
  31. }
  32. }

3.3 商家缓存主动更新策略

  • 超时剔除
  • 主动更新策略

同时操作数据库和缓存,需要加入事务,同成功同失败

先更新数据库,再删除缓存,下次查询就把更新的数据存入缓存。因为数据库更新的时间是较长的,而删除缓存,写入缓存是很快速的

在多线程并发情况下,若使用先删除缓存,再更新数据库的策略,这时注意,在该线程更新数据库时,另一线程进行查询操作,又把旧数据写入到缓存了,后续再查询,直接命中缓存,不查询数据库,造成缓存和数据库不一致

扩展:

Cache Aside Pattern 的缺陷

缺陷 1:首次请求数据一定不在 cache 的问题

解决办法:可以将热点数据可以提前放入 cache 中。

缺陷 2:写操作比较频繁的话导致 cache 中的数据会被频繁被删除,这样会影响缓存命中率 。

  • 数据库和缓存数据强一致场景 :更新 db 的时候同样更新 cache,不过我们需要加一个锁/分布式锁来保证更新 cache 的时候不存在线程安全问题。
  • 可以短暂地允许数据库和缓存数据不一致的场景 :更新 db 的时候同样更新 cache,但是给缓存加一个比较短的过期时间,这样的话就可以保证即使数据不一致的话影响也比较小。

 3.4 缓存穿透

缓存穿透是指客户端请求的数据在缓存中和数据库中都不存在,这样缓存永远不会生效,这些请求都会打到数据库。
常见的解决方案:

  • 缓存空对象

当数据库查询出的数据为空时,返回错误信息还要把空对象存入缓存中,并设置较短的有效时间。用户再次发送该请求时,直接命中redis缓存的空对象,返回错误信息,不再向下查询数据库,降低数据库压力。
优点:实现简单,维护方便; 缺点:额外的内存消耗,可能造成短期的不一致

  • 布隆过频

优点:内存占用较少,没有多余key; 缺点:实现复杂,存在误判可能

 这里选择使用缓存空值实现

  1. /**
  2. *下面的函数式编程有点抽象
  3. *在service层的具体调用为如下:
  4. *Shop shop = cacheClient.queryWithPassThrough(CACHE_SHOP_KEY, id, Shop.class, this::getById, CACHE_SHOP_TTL, TimeUnit.MINUTES);
  5. */
  6. public <R, ID> R queryWithPassThrough(String keyPrefix, ID id, Class<R> type, Function<ID, R> dbFallBack, Long time, TimeUnit timeUnit){
  7. //1. 从redis查询商铺缓存, 可以用sting,也可以用hash
  8. String key = keyPrefix + id;
  9. String strJson = stringRedisTemplate.opsForValue().get(key);
  10. //2. 存在,判断是否存在
  11. if(StrUtil.isNotBlank(strJson)){
  12. R r = JSONUtil.toBean(strJson, type);
  13. return r;
  14. }
  15. //此时还剩两种情况,null和""
  16. //判断redis查询到的是否为空值
  17. if(strJson != null){
  18. return null;
  19. }
  20. //3. 不存在,查询数据库
  21. R r = dbFallBack.apply(id);
  22. if(r == null){//4. 数据库中不存在,redis缓存空值
  23. stringRedisTemplate.opsForValue().set(key, "", CACHE_NULL_TTL, TimeUnit.MINUTES);
  24. return null;
  25. }
  26. //5. 数据库中存在, 写入redis
  27. stringRedisTemplate.opsForValue().set(key, JSONUtil.toJsonStr(r), time, timeUnit);
  28. //6. 返回
  29. return r;
  30. }

3.5 缓存击穿

缓存击穿问题也叫热点Key问题,就是一个被高并发访问并且缓存重建业务较复杂的key突然失效了,无数的请求访问会在瞬间给数据库带来巨大的冲击。
常见的解决方案:互斥锁和逻辑过期

两种方案的侧重点不同

  • 互斥锁 

利用Redis中的setnx(setIfAbsent)来实现互斥锁

  1. private boolean tryLock(String key){
  2. Boolean absent = stringRedisTemplate.opsForValue().setIfAbsent(key, "1", 10, TimeUnit.SECONDS);
  3. return BooleanUtil.isTrue(absent);
  4. }
  5. private void unLock(String key){
  6. stringRedisTemplate.delete(key);
  7. }
  1. public Shop queryWithMutex(Long id){
  2. //1. 从redis查询商铺缓存, 可以用sting,也可以用hash
  3. String key = CACHE_SHOP_KEY + id;
  4. String shopJson = stringRedisTemplate.opsForValue().get(key);
  5. //2. 存在,判断是否为空
  6. if(StrUtil.isNotBlank(shopJson)){
  7. //3.命中,直接返回
  8. Shop shop = JSONUtil.toBean(shopJson, Shop.class);
  9. return shop;
  10. }
  11. //此时还剩两种情况,null和""
  12. //判断redis查询到的是否为空值
  13. if(shopJson != null){
  14. return null;
  15. }
  16. //4. 不存在,尝试获取互斥锁
  17. String lockKey = LOCK_SHOP_KEY + id;
  18. boolean isLock = tryLock(lockKey);
  19. Shop shop;
  20. try {
  21. if(!isLock){
  22. //4.1 获取锁失败,休眠一段时间,重新查询
  23. Thread.sleep(50);
  24. return queryWithMutex(id);
  25. }
  26. //4.2 获取锁成功
  27. shop = getById(id);
  28. if(shop == null){//5. 数据库中不存在,redis缓存空值
  29. stringRedisTemplate.opsForValue().set(key, "", CACHE_NULL_TTL, TimeUnit.MINUTES);
  30. return null;
  31. }
  32. //6. 数据库中存在, 写入redis
  33. stringRedisTemplate.opsForValue().set(key, JSONUtil.toJsonStr(shop), CACHE_SHOP_TTL, TimeUnit.MINUTES);
  34. }catch (InterruptedException e){
  35. throw new RuntimeException(e);
  36. }finally {
  37. //7. 释放锁
  38. unLock(lockKey);
  39. }
  40. //8. 返回
  41. return shop;
  42. }
  • 逻辑过期

逻辑过期设置的一般不是TTL,设置缓存基本上是一直有效到活动结束后,才移除缓存中数据

以key和JSONUtil.toJsonStr(redisData)作为键值对,在redisData中设置逻辑过期,查询缓存时判断

之所以会逻辑过期,不是因为有效时间,而是因为数据更新了,缓存也需要更新数据,这是逻辑过期。

 整理流程:

  1. public class RedisData {
  2. private LocalDateTime expireTime;
  3. private Object data;
  4. }
  1. public void setWithLogicExpire(String key, Object data, Long expireTime, TimeUnit timeUnit){
  2. //设置逻辑过期时间
  3. RedisData redisData = new RedisData();
  4. redisData.setData(data);
  5. redisData.setExpireTime(LocalDateTime.now().plusSeconds(timeUnit.toSeconds(expireTime)));
  6. //写入redis
  7. stringRedisTemplate.opsForValue().set(key, JSONUtil.toJsonStr(redisData));
  8. }
  9. public <R, ID> R queryWithLogicExpire(String keyPrefix, ID id, Class<R> type, Function<ID, R> dbFallBack, String lockKeyPrefix, Long time, TimeUnit timeUnit){
  10. //1. 从redis查询商铺缓存, 可以用sting,也可以用hash
  11. String key = keyPrefix + id;
  12. String strJson = stringRedisTemplate.opsForValue().get(key);
  13. //2. 存在,判断是否存在
  14. //不存在,返回空
  15. if(StrUtil.isBlank(strJson)) return null;
  16. //3.存在,取出数据
  17. RedisData redisData = JSONUtil.toBean(strJson, RedisData.class);
  18. JSONObject data = (JSONObject) redisData.getData();
  19. R r = JSONUtil.toBean(data, type);
  20. LocalDateTime expireTime = redisData.getExpireTime();
  21. //4 判断是否逻辑过期
  22. //4.1 未过期
  23. if(expireTime.isAfter(LocalDateTime.now())){
  24. return r;
  25. }
  26. //过期
  27. //5.尝试获取锁
  28. String lockKey = lockKeyPrefix + id;
  29. boolean isLock = tryLock(lockKey);
  30. //5.1 获取锁失败
  31. if(!isLock) return r;
  32. //5.2 获取锁成功
  33. //5.3 二次检查是否过期
  34. if(expireTime.isAfter(LocalDateTime.now())){
  35. return r;
  36. }
  37. //6.开启独立线程, 重建缓存
  38. CACHE_REBUILD_EXECUTOR.submit(() ->{
  39. try {
  40. //7.重建缓存
  41. this.setWithLogicExpire(key, dbFallBack.apply(id), time, timeUnit);
  42. }catch (Exception e){
  43. throw new RuntimeException(e);
  44. }finally {
  45. //释放锁
  46. unLock(lockKey);
  47. }
  48. });
  49. //返回过期的缓存
  50. return r;
  51. }

3.6 缓存雪崩

缓存雪崩是指在同一时段大量的缓存key同时失效或者Redis服务宕机,导致大量请求到达数据库,带来巨大压力。
解决方案:给不同的Key的TTL添加随机值、利用Redis集群提高服务的可用性、给缓存业务添加降级限流策略、给业务添加多级缓存

3.7 封装redis工具类

将缓存穿透、缓存击穿、缓存雪崩的各种解决方法封装成CacheClient类

四、优惠券秒杀

4.1全局ID生成器

全局id生成器,是一种在分布式系统下用来生成全局唯一ID的工具,满足以下特性:高可用、唯一、高性能、递增性、安全性

为了增加ID的安全性,不直接使用Redis自增的数值,而是拼接一些其它信息:

通过 Redis 的 incr 自增原子命令即可实现对 id 原子顺序递增

  1. @Component
  2. public class RedisIdWorker {
  3. //开始时间戳
  4. private static final long BEGIN_TIMESTAMP = 1674086400L;
  5. //序列号位数
  6. private static final int COUNT_BITS = 32;
  7. private StringRedisTemplate stringRedisTemplate;
  8. public RedisIdWorker(StringRedisTemplate stringRedisTemplate) {
  9. this.stringRedisTemplate = stringRedisTemplate;
  10. }
  11. public long nextId(String ketPrefix){
  12. //时间戳
  13. LocalDateTime now = LocalDateTime.now();
  14. long nowSecond = now.toEpochSecond(ZoneOffset.UTC);
  15. long timeStamp = nowSecond - BEGIN_TIMESTAMP;
  16. //序列号
  17. String date = now.format(DateTimeFormatter.ofPattern("yyyy:MM:dd"));
  18. Long count = stringRedisTemplate.opsForValue().increment("icr:" + ketPrefix + ":" + date);
  19. //
  20. return timeStamp << COUNT_BITS | count;
  21. }
  22. }

Redis集群模式下的分布式id一种做法:分成3部分组成:毫秒级时间,redis集群的第多少个节点,每一个redis节点在每一毫秒的自增序列值

4.2 秒杀下单

下单包括两个部分:修改秒杀优惠券表tb_seckill_voucher、在tb_voucher_order表中添加订单

 涉及到多表操作需要添加事务

 4.3 超卖问题

原因分析:

超卖问题是典型的多线程安全问题,针对这一问题的常见解决方案就是加锁:
悲观锁:认为线程安全问题一定会发生,因此在操作数据之前先获取锁,确保线程串行执行。例如Synchronized、Lock都属于悲观锁
乐观锁:认为线程安全问题不一定会发生,因此不加锁,只是在更新数据时去判断有没有其它线程对数据做了修改。如果没有修改则认为是安全的,自己才更新数据。如果已经被其它线程修改说明发生了安全问题,此时可以重试或异常。

悲观锁实现比较简单,操作前获取锁,操作结束才释放锁,让多个线程串行执行,但是你让并发线程串行,效率十分低下。

乐观锁设计

版本号法

CAS法

在该情况下采用CAS法在修改库存时判断库存是否被修改过即可。

  1. boolean success = seckillVoucherService.update()
  2. .setSql("stock = stock - 1")
  3. .eq("voucher_id",voucherId).eq("stock",voucher.getStock())
  4. .update();

存在的问题:在压力测试下(200个线程1s内执行完)只卖出了20张

原因分析:设置的是stock没有被修改,且每个线程只会尝试一次。假设此时有10个线程同时操作,只有一个会成功。只需要让更改时的条件为查到的库存数大于0即可

  1. boolean success = seckillVoucherService.
  2. update().setSql("stock = stock - 1")
  3. .eq("voucher_id", voucherId)
  4. .gt("stock", 0)
  5. .update();

如上,一条语句执行查询和减库存操作,使得多个请求到达数据库时,数据库直接将多个更新语句通过互斥锁串行化执行,保证不会出现超卖。

但是将互斥操作下沉到数据库存在问题:大量的写请求到达数据库,然后串行执行,这样操作的性能差,对数据库的压力也大。在并发数量比较少的情况下,还可以接受,但是如果是高并发的场景,上述方法不可取。要正确解决高并发下的超卖问题,一般需要借助缓存,比如redis,见后续的异步秒杀优化

乐观锁存在的问题:

  • ABA问题

如果一个变量 V 初次读取的时候是 A 值,并且在准备赋值的时候检查到它仍然是 A 值,那我们就能说明它的值没有被其他线程修改过了吗?很明显是不能的,因为在这段时间它的值可能被改为其他值,然后又改回 A,那 CAS 操作就会误认为它从来没有被修改过。这个问题被称为 CAS 操作的 "ABA"问题。

ABA 问题的解决思路是在变量前面追加上版本号或者时间戳

首先检查当前引用是否等于预期引用,并且当前标志是否等于预期标志,如果全部相等,则以原子方式将该引用和该标志的值设置为给定的更新值。

  • 循环时间长开销大

CAS 经常会用到自旋操作来进行重试,也就是不成功就一直循环执行直到成功。如果长时间不成功,会给 CPU 带来非常大的执行开销。

  • 只能保证一个共享变量的原子操作

CAS 只对单个共享变量有效,当操作涉及跨多个共享变量时 CAS 无效。可以使用锁或者利用AtomicReference类把多个共享变量合并成一个共享变量来操作。

4.4 一人一单

加锁方式,在并发请求时,保证一个用户只能下一单。通过对用户加锁,保证在多线程情况下,多个用户相同时只有一个用户能够操作成功

尤其注意四点:

  1. 不要对seckillVoucher方法加锁,这样会导致不同的用户进入该方法也要去抢占锁,降低效率。将判断用户并创建订单的逻辑部分抽离出来(createVoucherOrder)
  2. 选择对用户进行加锁,用户的唯一标识选用userId,需要注意:userId为Long包装类,toString之后也是new的一个String对象,因此需要intern方法
  3. 对用户加锁的话有两个选择,一种是在createVoucherOrder中加锁。该方式存在问题:这样设计的话,过程是先释放锁再提交事务,这样的话在这个过程中可能会发生其他线程拿到锁但是事务还没提交的情况,存在线程安全问题
  4. 事务失效问题。因此应该在提交事务后再释放锁。按照如下方式加锁和调用方法存在事务失效的问题,原因是seckillVoucher方法是没有加@Transactional注解的,调用带@Transactional注解的createVoucherOrder方法,发生了自身调用,没有经过Spring的代理类,事务不会生效
    1. synchronized (userId.toString().intern()){
    2. return createVoucherOrder(voucherId);
    3. //相当于return this.createVoucherOrder(voucherId);
    4. }

    获得代理对象,对代理对象加锁。整体代码如下(需要在启动类上加上@EnableAspectJAutoProxy(exposeProxy = true))

  1. public Result seckillVoucher(Long voucherId) {
  2. //1.查询id为voucherId的秒杀券
  3. SeckillVoucher voucher = seckillVoucherService.getById(voucherId);
  4. if(voucher == null){
  5. //秒杀券不存在
  6. return Result.fail("该秒杀券不存在!");
  7. }
  8. //2.查看秒杀是否开始或结束
  9. LocalDateTime beginTime = voucher.getBeginTime();
  10. //2.1 秒杀未开始,返回
  11. if(beginTime.isAfter(LocalDateTime.now())){
  12. return Result.fail("该秒杀未开始!");
  13. }
  14. //2.2 秒杀已结束,返回
  15. LocalDateTime endTime = voucher.getEndTime();
  16. if(endTime.isBefore(LocalDateTime.now())){
  17. return Result.fail("该秒杀已结束!");
  18. }
  19. //3.库存是否充足
  20. Integer stock = voucher.getStock();
  21. //库存不足,返回
  22. if(stock < 1) return Result.fail("该秒杀券已秒杀完!");
  23. Long userId = UserHolder.getUser().getId();
  24. //说明:
  25. //1. 因为要保证的是每个用户只能秒杀成功一次,对整个seckillVoucher加锁的话影响效率
  26. //2. 选择对用户加锁,这里需要注意UserId为包装类,toString之后也是new的一个String对象,因此需要intern方法
  27. //3. 对用户加锁的话有两个选择,一种是如下,另一种是在createVoucherOrder中加锁
  28. //4. 第二种方式的问题:过程是先释放锁再提交事务,这样的话在这个过程中可能会发生其他线程拿到锁但是事务还没提交的情况,存在线程安全问题
  29. synchronized (userId.toString().intern()){
  30. //这里需要注意seckillVoucher方法是没有加@Transactional注解的
  31. //调用带@Transactional注解的createVoucherOrder方法
  32. //发生了自身调用,没有经过Spring的代理类,事务不会生效
  33. IVoucherOrderService proxy = (IVoucherOrderService) AopContext.currentProxy();
  34. return proxy.createVoucherOrder(voucherId);
  35. }
  36. }
  37. @Transactional
  38. public Result createVoucherOrder(Long voucherId) {
  39. //4.检查该用户是否已经秒杀成功过
  40. //用户id
  41. Long userId = UserHolder.getUser().getId();
  42. //查询订单
  43. Integer count = query().eq("user_id", userId).eq("voucher_id", voucherId).count();
  44. if(count > 0) return Result.fail("您已秒杀过该优惠券!");
  45. //5.1 修改库存
  46. boolean success = seckillVoucherService.
  47. update().setSql("stock = stock - 1")
  48. .eq("voucher_id", voucherId)
  49. .gt("stock", 0)
  50. .update();
  51. if(!success) return Result.fail("秒杀失败!");
  52. //5.2 生成秒杀订单
  53. VoucherOrder voucherOrder = new VoucherOrder();
  54. //订单id
  55. long orderId = redisIdWorker.nextId("order");
  56. voucherOrder.setId(orderId);
  57. voucherOrder.setUserId(userId);
  58. //优惠券id
  59. voucherOrder.setVoucherId(voucherId);
  60. save(voucherOrder);
  61. return Result.ok(orderId);
  62. }

上述可以解决在单机情况下的一人一单安全问题,但是在集群模式下就不行了。

简单模拟集群:

在集群模式下,非分布式加锁只是该台jvm给当前这台服务器处理的请求加锁,而集群是多台服务器轮询处理请求,每台服务器都有一个加锁的线程,每台服务器都可能会创建一个新订单。

4.5 分布式锁对一人一单改进

分布式锁:满足分布式系统或集群模式下多进程可见并且互斥的锁。

 

分布式锁的特点:多进程可见、互斥、高可用、高性能(高并发)、安全性

分布式锁的核心是实现多进程之间互斥,而满足这一点的方式有很多,常见的分布式锁有以下三种

4.5.1 初级版本

 

 注:阻塞式和非阻塞式均可,这里采用的是阻塞式。为了保证set和expire命令的原子性,使用set key value nx ex命令

Redis分布式锁原理:基于setnx命令–>key存在的情况下,不更新value,而是返回nil。那么利用key是唯一的特性来加锁,比如一人一单业务,key名称精确到userId,那么同一个用户无论发多少次请求,能成功创建键值的只有一个,因为setnx命令,后面的请求在获取锁创建键值就会失败

4.5.2 误删问题

在多线程情况下,当前锁设计无法区分不同的线程。

 

 解决思路:在释放锁之前判断锁是不是自己的

通过对线程添加线程标识来区分不同的线程。需要注意,因为考虑的是集群的情况,不同的jvm可能存在线程号相同的线程,不能直接用线程ID做标识,在线程ID前加上一个UUID

初级版本的锁实现如下

  1. public class SimpleRedisLock implements ILock{
  2. private static final String KEY_PREFIX = "lock:";
  3. private String name;
  4. private StringRedisTemplate stringRedisTemplate;
  5. private static final String ID_PREFIX = UUID.randomUUID().toString(true) + "-";
  6. public SimpleRedisLock(String name, StringRedisTemplate stringRedisTemplate) {
  7. this.name = name;
  8. this.stringRedisTemplate = stringRedisTemplate;
  9. }
  10. @Override
  11. public boolean tryLock(long timeOutSec) {
  12. //线程id
  13. String threadId = ID_PREFIX + Thread.currentThread().getId();
  14. Boolean success = stringRedisTemplate.opsForValue().setIfAbsent(KEY_PREFIX + name, threadId + "", timeOutSec, TimeUnit.SECONDS);
  15. //这里包装类拆箱的时候可能会出现空指针异常
  16. return Boolean.TRUE.equals(success);
  17. }
  18. @Override
  19. public void unlock() {
  20. String threadId = ID_PREFIX + Thread.currentThread().getId();
  21. if(threadId.equals(stringRedisTemplate.opsForValue().get(KEY_PREFIX + name))){ //防止误删
  22. stringRedisTemplate.delete(KEY_PREFIX + name);
  23. }
  24. }
  25. }

4.5.3 原子性问题

需要保证:判断锁的操作和释放锁的操作得成一个原子性操作,一起执行,要阻塞都阻塞,要通过都通过

通过Lua脚本保证多条命令的原子性。unlock.lua:

为什么lua脚本可以保证原子性?

Redis保证以原子方式执行脚本:执行脚本时不会执行其他脚本或Redis命令。 类似于给执行lua脚本这段代码加了锁 ,可能redis内部实现会有一定的差异,反正大致意思就是这样

Redis使用同一个Lua解释器来执行所有命令,同时,Redis保证以一种原子性的方式来执行脚本:当lua脚本在执行的时候,不会有其他脚本和命令同时执行,这种语义类似于 MULTI/EXEC。从别的客户端的视角来看,一个lua脚本要么不可见,要么已经执行完。

  1. -- 这里的 KEYS[1] 就是锁的 key,这里的 ARGV[1] 就是当前线程标识
  2. -- 获取锁中的线程标识 get key
  3. local id = redis.call('get', KEYS[1]);
  4. -- 比较线程标识与锁中的标识是否一致
  5. if (id == ARGV[1]) then
  6. -- 释放锁 del key
  7. return redis.call('del', KEYS[1])
  8. end
  9. return 0

使用lua脚本改造后的SimpleRedisLock:

  1. private static final DefaultRedisScript<Long> UNLOCK_SCRIPT;
  2. static {
  3. UNLOCK_SCRIPT = new DefaultRedisScript<>();
  4. UNLOCK_SCRIPT.setLocation(new ClassPathResource("unlock.lua"));
  5. UNLOCK_SCRIPT.setResultType(Long.class);
  6. }
  7. @Override
  8. public void unlock() {
  9. //通过调用lua脚本实现判断和删除操作的原子性
  10. stringRedisTemplate.execute(UNLOCK_SCRIPT,
  11. Collections.singletonList(KEY_PREFIX + name),
  12. ID_PREFIX + Thread.currentThread().getId());
  13. }

4.5.4 Redisson分布式锁进行改进

基于 setnx 实现的分布式锁存在下面的问题
1.不可重入:同一个线程无法多次获取同一把锁(第二次尝试拿锁时会返回nil,获取锁失败)
2.不可重试:获取锁只尝试一次就返回 false,没有重试机制
3.超时释放:锁超时释放虽然可以避免死锁,但如果是业务执行耗时较长,也会导致锁释放,存在安全隐患
4.主从一致性:如果 Redis 提供了主从集群,主从延同步在延迟,当主机宕机时,如果从机同步主机中的数据,则会出现锁失效

导入maven坐标

redisson配置文件

  1. @Configuration
  2. public class RedissonConfig {
  3. @Bean
  4. public RedissonClient redissonClient(){
  5. Config config = new Config();
  6. config.useSingleServer().setAddress("").setPassword("");
  7. return Redisson.create(config);
  8. }
  9. }

Redisson可重入锁原理 

基本思想就是先判断锁是否是该线程的,每次获取锁将次数加一,释放锁减一,减到0时删除锁。

Redisson分布式锁原理

Redisson分布式锁原理:
可重入:利用hash结构记录线程id和重入次数
可重试:利用信号量和PubSub功能实现等待、唤醒,获取锁失败的重试机制
超时续约:利用watchDog,每隔一段时间( releaseTime/ 3),重置超时时间。看起来和永不过期没区别,但是锁续期任务线程是和获取锁线程在同一个jvm实例中的,宕机会一起挂掉

 总结:

①不可重入Redis 分布式锁
原理:利用 setnx 的互斥性;利用 ex 避免死锁;释放锁时判断线程标示
缺陷:不可重入、无法重试、锁超时失效

②可重入的 Redis 分布式锁
原理:利用 hash 结构,记录线程标示和重入次数;利用 watchDog 延续锁时间;利用信号量控制锁重试等待
缺陷:Redis 宕机引起锁失效问题

③Redisson 的 multiLock连锁
原理:多个独立的 Redis 节点,必须在所有节点都获取重入锁,才算获取锁成功
缺陷:运维成本高、实现复杂


4.5.5 异步秒杀优化

观察业务流程可以发现,下单的业务流程包含一系列判断和数据库操作,是比较耗费时间的。

异步优化:分离成两个线程,一个线程判断用户的购买资格,用户有购买资格后再开启一个独立的线程来处理耗时较久的减库存、写订单的操作。将耗时较短的两步操作放到 Redis 中,在 Redis 中处理对应的秒杀资格的判断。Redis 的性能是比 MySQL 要好的。此外,还需要引入异步队列记录相关的信息。

需求分解:

1.新增秒杀优惠券的同时,将优惠券信息保存到 Redis 中(将在数据库中判断库存转移到Redis中)
2.基于 Lua 脚本,判断秒杀库存、一人一单,决定用户是否抢购成功
3.如果抢购成功,将优惠券 id 和用户 id 封装后存入阻塞队列
4.开启线程任务,不断从阻塞队列中获取信息,实现异步下单功能

需求实现:

1.略

2.基于Lua脚本进行预检

  1. local voucherId = ARGV[1]
  2. local userId = ARGV[2]
  3. local stockKey = 'seckill:stock:' .. voucherId
  4. local orderKey = 'seckill:order:' .. voucherId
  5. ---1.判断库存是否充足
  6. if(tonumber(redis.call('get', stockKey)) <= 0) then
  7. return 1
  8. end
  9. ---2.判断用户是否下过单
  10. if(redis.call('sismember', orderKey, userId) == 1) then
  11. return 2
  12. end
  13. ---3.扣减库存
  14. redis.call('incrby', stockKey, -1)
  15. ---4.将UserId存入当前优惠券的set集合
  16. redis.call('sadd', orderKey, userId)
  17. return 0

注入脚本

  1. private static final DefaultRedisScript<Long> SECKILL_SCRIPT;
  2. static {
  3. SECKILL_SCRIPT = new DefaultRedisScript<>();
  4. SECKILL_SCRIPT.setLocation(new ClassPathResource("seckill.lua"));
  5. SECKILL_SCRIPT.setResultType(Long.class);
  6. }

3、封装订单,放入阻塞队列

创建阻塞队列

  1. //创建阻塞队列 这个阻塞队列特点:当一个线程尝试从队列获取元素的时候,如果没有元素该线程阻塞,直到队列中有元素才会被唤醒获取
  2. private BlockingQueue<VoucherOrder> orderTasks = new ArrayBlockingQueue<>(1024 * 1024);

预检通过后,保存订单信息,放入阻塞队列

  1. @Override
  2. public Result seckillVoucher(Long voucherId) {
  3. Long userId = UserHolder.getUser().getId();
  4. //1.执行sekill.lua脚本,进行预检:判断库存是否充足,用户是否下过单
  5. Long execute = stringRedisTemplate.execute(SECKILL_SCRIPT,
  6. Collections.emptyList(),
  7. voucherId.toString(), userId.toString());
  8. int result = execute.intValue();
  9. if(result == 1){
  10. return Result.fail("该秒杀券已秒杀完!");
  11. } else if (result == 2) {
  12. return Result.fail("不允许重复下单!");
  13. }
  14. //2.将优惠券id、用户id和订单id存入阻塞队列
  15. //2.1.生成秒杀订单
  16. VoucherOrder voucherOrder = new VoucherOrder();
  17. //订单id
  18. long voucherOrderId = redisIdWorker.nextId("order");
  19. voucherOrder.setId(voucherOrderId);
  20. voucherOrder.setUserId(userId);
  21. //优惠券id
  22. voucherOrder.setVoucherId(voucherId);
  23. //2.2 将订单放入阻塞队列
  24. orderTasks.add(voucherOrder);
  25. //2.3 获取动态代理对象
  26. proxy = (IVoucherOrderService) AopContext.currentProxy();
  27. return Result.ok(voucherOrderId);
  28. }

4. 开启线程任务,不断从阻塞队列中获取信息,实现异步下单

创建线程池

private final ExecutorService SECKILL_ORDER_EXECUTOR = Executors.newSingleThreadExecutor();

创建线程任务。需要注意,线程任务需要在用户秒杀订单之前开始,用户一但开始秒杀,队列就会有新的订单,线程任务就应该立即取出订单信息,这里利用spring提供的注解,在类初始化完毕后立即执行线程任务

  1. @PostConstruct
  2. private void init(){
  3. //因为程序一启动就可能有用户创建订单,因此需要在该类创建后就要初始化VoucherOrderHandler以执行线程任务
  4. SECKILL_ORDER_EXECUTOR.submit(new VoucherOrderHandler());
  5. }
  6. private class VoucherOrderHandler implements Runnable{
  7. @Override
  8. public void run() {
  9. while (true){
  10. //只有阻塞队列中存在元素才能take到,否则会一直阻塞
  11. try {
  12. VoucherOrder voucherOrder = orderTasks.take();
  13. //执行业务
  14. handleVoucherOrder(voucherOrder);
  15. } catch (Exception e) {
  16. log.info("异常信息", e);
  17. }
  18. }
  19. }
  20. }

异步下单逻辑,这里的获取锁操作只是做最后的兜底,以防万一,因为前面lua脚本都已经判断过了。

这里需要注意的是,AopContext.currentProxy()是通过ThreadLocal来获取当前代理对象的,而这里是异步下单,异步线程中是获取不到当前代理对象的。因此要在主线程中获取代理对象,1.方法多传入一个参数 2.将代理对象作为类的成员

  1. private IVoucherOrderService proxy;
  2. private void handleVoucherOrder(VoucherOrder voucherOrder) {
  3. Long userId = voucherOrder.getUserId();
  4. //理论上说在lua脚本中已经保证了并发安全,这里再做一次兜底
  5. RLock lock = redissonClient.getLock("lock:order:" + userId);
  6. boolean isLock = lock.tryLock();
  7. if(!isLock){
  8. log.info("不允许重复下单");
  9. }
  10. //需要注意:观察AopContext.currentProxy()可以发现是通过ThreadLocal来获取当前代理对象的
  11. //而这里是异步下单,当前线程中是获取不到当前代理对象的
  12. //两种解决方案:在主线程中获取代理对象,1.方法多传入一个参数 2.将代理对象作为类的成员
  13. try{
  14. proxy.createVoucherOrder(voucherOrder);
  15. }finally {
  16. lock.unlock();
  17. }
  18. }
  1. @Transactional
  2. public void createVoucherOrder(VoucherOrder voucherOrder) {
  3. Long userId = voucherOrder.getUserId();
  4. //查询订单
  5. Integer count = query().eq("user_id", userId).eq("voucher_id", voucherOrder.getVoucherId()).count();
  6. if(count > 0) {
  7. log.error("您已秒杀过该优惠券!");
  8. return;
  9. }
  10. //2.修改库存
  11. boolean success = seckillVoucherService.
  12. update().setSql("stock = stock - 1")
  13. .eq("voucher_id", voucherOrder.getVoucherId())
  14. .gt("stock", 0)
  15. .update();
  16. if(!success) {
  17. log.error("库存不足!");
  18. return;
  19. }
  20. //3.创建订单
  21. save(voucherOrder);
  22. }

整个优化思路

①编写lua脚本,解决超卖问题和一人一单,超卖用CAS方法判断库存是否大于0,一人一单用redis的set集合的sismenber判读该优惠券(key)下的用户id(value)是否唯一

②Java代码中注入脚本

③若脚本结果为0,代表有购买优惠券资格,将new VoucherOrder创建订单对象,把订单对象放入阻塞队列中,返回订单id给用户。至此主线程任务完毕。

异步下单:

④创建线程池,并定义线程任务,但注意,线程任务必须在方法执行前执行,使用到spring提供的注解在类初始化完成后执行线程任务

⑤线程任务中获取阻塞队列的订单对象,然后调用handleVoucherOrder方法传入voucherOrder

⑥handleVoucherOrder方法其实是再次获取锁,这个就是个纯兜底,作用不大。并在获取锁成功后调用createVoucherOrder方法扣减库存创建订单,由于都是对数据库的操作,因此要提交事务

至此,整个秒杀业务优化完毕

总结

秒杀业务的优化思路是什么?

先利用 Redis 完成库存余量、一人一单判断,完成抢单业务

再将下单业务放入阻塞队列,利用独立线程异步下单

基于阻塞队列的异步秒杀存在哪些问题?

内存限制问题:我们使用的是JDK里的阻塞队列,是基于JVM的内存,高并发海量请求下造成内存溢出

数据安全问题:服务宕机等情况下内存数据丢失

目前还存在的问题

队列满了怎么办 ?
子线程下单失败怎么办?
订单太多了超过阻塞队列大小了怎么办?
拒绝策略怎么设计?
待消费的消息是否应该持久化,不然宕机了消息不就丢失了?
还有如何确保消息确实被消费成功了,不然消费失败了无法重试


4.5.6 消息队列

前面的阻塞队列是基于JVM的内存实现,那么不可避免的两个大问题,①高并发海量访问,创建订单,队列很快就超出上限造成内存溢出;②JVM内存没有持久化机制,若服务出现重启或宕机,阻塞队列中的所有任务都会丢失。

MQ是JVM以外的服务,不受JVM内存限制,且MQ中的所有消息会做持久化,这样即使重启或宕机,数据不会丢失。消息投递给消费者后需要消费者确认,未确认消息会一直存在下一次继续投递,确保消息至少被消费一次

 4.5.6.1 基于List结构模拟消息队列

如何满足消息保序需求

List 本身就是按先进先出的顺序对数据进行存取的,所以,如果使用 List 作为消息队列保存消息的话,就已经能满足消息保序的需求了。

List 可以使用 LPUSH + RPOP (或者反过来,RPUSH+LPOP)命令实现消息队列。

在生产者往 List 中写入数据时,List 并不会主动地通知消费者有新消息写入,如果消费者想要及时处理消息,就需要在程序中不停地调用 RPOP 命令(比如使用一个while(1)循环)。如果有新消息写入,RPOP命令就会返回结果,否则,RPOP命令返回空值,再继续循环。

所以,即使没有新消息写入List,消费者也要不停地调用 RPOP 命令,这就会导致消费者程序的 CPU 一直消耗在执行 RPOP 命令上,带来不必要的性能损失。

为了解决这个问题,Redis提供了 BRPOP 命令。BRPOP命令也称为阻塞式读取,客户端在没有读到队列数据时,自动阻塞,直到有新的数据写入队列,再开始读取新数据。和消费者程序自己不停地调用RPOP命令相比,这种方式能节省CPU开销。

如何处理重复的消息

消费者要实现重复消息的判断,需要 2 个方面的要求:

  • 每个消息都有一个全局的 ID。
  • 消费者要记录已经处理过的消息的 ID。当收到一条消息后,消费者程序就可以对比收到的消息 ID 和记录的已处理过的消息 ID,来判断当前收到的消息有没有经过处理。如果已经处理过,那么,消费者程序就不再进行处理了。

但是 List 并不会为每个消息生成 ID 号,所以我们需要自行为每个消息生成一个全局唯一ID,生成之后,我们在用 LPUSH 命令把消息插入 List 时,需要在消息中包含这个全局唯一 ID。

如何保证消息可靠性

List 类型提供了 BRPOPLPUSH 命令,这个命令的作用是让消费者程序从一个 List 中读取消息,同时,Redis 会把这个消息再插入到另一个 List(可以叫作备份 List)留存

这样一来,如果消费者程序读了消息但没能正常处理,等它重启后,就可以从备份 List 中重新读取消息并进行处理了。

总结:

优点:利用 Redis 存储,不受限于 JVM 内存上限;基于 Redis 的持久化机制,数据安全性有保证;可以满足消息有序性

缺点:无法避免消息丢失;只支持单消费者

4.5.6.2 基于PubSub的消息队列

消费者可以订阅一个或多个channel,生产者向对应 channel 发送消息后,所有订阅者都能收到相关消息。SUBSCRIBE channel [channel] :订阅一个或多个频道 PUBLISH channel msg :向一个频道发送消息 PSUBSCRIBE pattern[pattern] :订阅与 pattern 格式匹配的所有频道
优点:采用发布订阅模型,支持多生产、多消费
缺点:不支持数据持久化;无法避免消息丢失;消息堆积有上限,超出时数据丢失

4.5.6.3 基于Stream的消息队列

单消费模式

发送消息的命令

XADD key [NOMKSTREAM] [MAXLEN|MINID [=|~] threshold [LIMIT count]] *|ID field value [field value …]

key:队列名称

[NOMKSTREAM]:如果队列不存在时,确定是否自动创建队列,默认自动创建

[MAXLEN|MINID [=|~] threshold [LIMIT count]]:设置消息队列的最大消息数量

|ID:消息的唯一 ID, 代表由 Redis 自动生成,格式是 ”时间戳-递增数字“,例如:”1666161469358-0“

field value [field value …]:发送到队列中的消息,称为 Entry。格式为多个 Key-Value 键值对。

例如:创建名为 users 的队列,并向其中发送一个消息,内容是:{name=jack,age=21},并且使用 Redis 自动生成 ID

XADD users * name jack age 21 “1644805700523-0”

读取消息命令

[COUNT count]:每次读取消息的最大数量;

[BLOCK milliseconds]:当没有消息时,确定是否阻塞,阻塞则添加具体的 milliseconds (阻塞时长)

STREAMS key [key …]:从哪个队列读取消息,Key 就是队列名;

ID [ID …]:起始 ID,只返回大于该 ID 的消息;0 代表从第一个消息开始,$ 代表从最新的消息开始。

例如,使用 XREAD 读取第一个消息 XREAD COUNT 1 STREAMS users 0

当我们指定起始 ID 为 $ 时,代表读取最新的消息
如果我们处理一条消息的过程中,又有超过 1 条以上的消息到达队列,则下次获取时也只能获取到最新的一条
如此便会出现漏读消息的问题

STREAM 类型消息队列的 XREAD 命令特点:

1.消息可回溯(消息永久的保存在消息队列中)
2.一个消息可以被多个消费者读取
3.可以阻塞读取
4.有消息漏读的风险(缺点)

消费者组模式

消费者组(Consumer Group):将多个消费者划分到一个组中,监听同一个队列。

其具备下列特点:

消息分流:队列中的消息会分流给组内不同的消费者,而不是重复消费,从而加快消息处理的速度。

消息标示:消费者组会维护一个标示,记录最后一个被处理的消息,即使消费者宕机重启,还会从标示之后读取消息,确保每一个消息都会被消费。(解决漏读问题)

消息确认:消费者获取消息后,消息处于 pending 状态,并存入一个 pending-list。当处理完成后需要通过 XACK 命令来确认消息,标记消息为已处理,才会从 pending-list 中移除。(解决消息丢失问题)

创建消费者组

XGROUP CREATE key groupName ID [MKSTREAM]

key:队列名称

groupName:消费者组名称

ID:起始 ID 标示,$ 代表队列中最后一个消息,0 则代表队列中第一个消息

MKSTREAM:队列不存在时自动创建队列

从消费者组读取消息

XREADGROUP GROUP group consumer [COUNT count] [BLOCK milliseconds] [NOACK] STREAMS key [key …] ID [ID …]

group:消费组名称
consumer:消费者名称,如果消费者不存在,会自动创建一个消费者
count:本次查询的最大数量
BLOCK milliseconds:当没有消息时最长等待时间
NOACK:无需手动 ACK,获取到消息后自动确认
STREAMS key:指定队列名称
ID:获取消息的起始 ID:
“>”:从下一个未消费的消息开始
其它:根据指定 id 从 pending-list 中获取已消费但未确认的消息。
例如 0,是从 pending-list 中的第一个消息开始
4.5.6.3 Stream的消息队列异步秒杀下单

需求:

①创建一个 Stream 类型的消息队列,名为 stream.orders
②修改之前的秒杀下单 Lua 脚本,在认定有抢购资格后,直接向 stream.orders 中添加消息,内容包含 voucherId、userId、orderId
③项目启动时,开启一个线程任务,尝试获取 stream.orders 中的消息,完成下单
 

  1. local voucherId = ARGV[1]
  2. local userId = ARGV[2]
  3. local orderId = ARGV[3]
  4. local stockKey = 'seckill:stock:' .. voucherId
  5. local orderKey = 'seckill:order:' .. voucherId
  6. ---1.判断库存是否充足
  7. if(tonumber(redis.call('get', stockKey)) <= 0) then
  8. return 1
  9. end
  10. ---2.判断用户是否下过单
  11. if(redis.call('sismember', orderKey, userId) == 1) then
  12. return 2
  13. end
  14. ---3.扣减库存
  15. redis.call('incrby', stockKey, -1)
  16. ---4.将UserId存入当前优惠券的set集合
  17. redis.call('sadd', orderKey, userId)
  18. ---5.向消息队列中发送消息: XADD stream.orders * k1 v1 k2 v2 ...
  19. redis.call('xadd', 'stream.orders', '*', 'userId', userId, 'voucherId', voucherId, 'id', orderId)
  20. return 0
  1. private class VoucherOrderHandler implements Runnable{
  2. String messageQueue = "stream.orders";
  3. @Override
  4. public void run() {
  5. while (true){
  6. try {
  7. //1.从消息队列中取出消息 xreadgroup group g1 c1 count 1 block 2000 streams stream.orders
  8. List<MapRecord<String, Object, Object>> records = stringRedisTemplate.opsForStream().read(
  9. Consumer.from("g1", "c1"),
  10. StreamReadOptions.empty().count(1).block(Duration.ofSeconds(2)),
  11. StreamOffset.create(messageQueue, ReadOffset.lastConsumed()));
  12. //2.判断是否获取成功
  13. if(records == null || records.isEmpty()) continue;
  14. //3.解析消息中的订单信息
  15. MapRecord<String, Object, Object> record = records.get(0);
  16. Map<Object, Object> values = record.getValue();
  17. VoucherOrder voucherOrder = BeanUtil.fillBeanWithMap(values, new VoucherOrder(), true);
  18. //4.执行下单
  19. handleVoucherOrder(voucherOrder);
  20. //5.确认消息
  21. stringRedisTemplate.opsForStream().acknowledge(messageQueue, "g1", record.getId());
  22. } catch (Exception e) {
  23. handlePendingList();
  24. log.info("处理订单异常", e);
  25. }
  26. }
  27. }
  28. private void handlePendingList() {
  29. while (true){
  30. try {
  31. //1.pending-list取出消息
  32. List<MapRecord<String, Object, Object>> records = stringRedisTemplate.opsForStream().read(
  33. Consumer.from("g1", "c1"),
  34. StreamReadOptions.empty().count(1),
  35. StreamOffset.create(messageQueue, ReadOffset.from("0")));
  36. //2.判断是否获取成功
  37. if(records == null || records.isEmpty()) {
  38. //获取失败说明没有异常消息
  39. break;
  40. }
  41. //3.解析消息中的订单信息
  42. MapRecord<String, Object, Object> record = records.get(0);
  43. Map<Object, Object> values = record.getValue();
  44. VoucherOrder voucherOrder = BeanUtil.fillBeanWithMap(values, new VoucherOrder(), true);
  45. //4.执行下单
  46. handleVoucherOrder(voucherOrder);
  47. //5.确认消息
  48. stringRedisTemplate.opsForStream().acknowledge(messageQueue, "g1", record.getId());
  49. } catch (Exception e) {
  50. try {
  51. Thread.sleep(20);
  52. } catch (InterruptedException ex) {
  53. throw new RuntimeException(ex);
  54. }
  55. log.info("处理pending-list订单异常", e);
  56. //因为while(true)在try-catch外面,不需要递归调用
  57. }
  58. }
  59. }
  60. }

五、达人探店

涉及基于List的点赞列表
基于SortedSet的点赞排行榜

5.1 发布博客

  1. //controll层
  2. @PostMapping
  3. public Result saveBlog(@RequestBody Blog blog) {
  4. return blogService.saveBlog(blog);
  5. }
  6. //service层
  7. @Override
  8. public Result saveBlog(Blog blog) {
  9. // 获取登录用户
  10. UserDTO user = UserHolder.getUser();
  11. blog.setUserId(user.getId());
  12. // 保存探店博文
  13. save(blog);
  14. // 返回id
  15. return Result.ok(blog.getId());
  16. }

5.2 查看博客

查看博客时,除了需要查询blog表外,还需要显示发布博客的用户名称和头像

有两种做法,一种是使用Dto对象,把两表查询结果放入dto,然后返回dto对象;第二种是直接在Blog实体类,添加用户头像和用户名称两个属性,并加上mp提供的注解@TableField(exist = false) 表示该属性不属于表中字段

  1. private void queryBlogUser(Blog blog) {
  2. Long userId = blog.getUserId();
  3. User user = userService.getById(userId);
  4. blog.setIcon(user.getIcon());
  5. blog.setName(user.getNickName());
  6. }
  7. @Override
  8. public Result queryBlogById(Long id) {
  9. //1.查询blog
  10. Blog blog = getById(id);
  11. if(blog == null){
  12. return Result.fail("该blog不存在!");
  13. }
  14. //2.查询用户
  15. queryBlogUser(blog);
  16. //3.查询是否点赞
  17. UserDTO user = UserHolder.getUser();
  18. if(user != null){
  19. //当用户不为空时
  20. isBlogLike(blog);
  21. }
  22. return Result.ok(blog);
  23. }

4.3 点赞

需求分析:

同一个用户只能点赞一次,再次点击则取消点赞
如果当前用户已经点赞,则点赞按钮高亮显示(前端已实现,判断字段Blog类的isLike属性)

实现步骤:
给Blog类中添加一个isLike字段,标示是否被当前用户点赞
修改点赞功能,利用Redis的set集合判断是否点赞过,未点赞过则点赞数+1,已点赞过则点赞数-1

修改根据id查询Blog的业务,判断当前登录用户是否点赞过,赋值给isLike字段
修改分页查询Blog业务,判断当前登录用户是否点赞过,赋值给isLike字段

使用redis的set集合,key为blog的id,value为user的id,用set的ismembet方法判断,当前集合是否有userId,来判读该博客,用户是否已经点赞过了。每个key代表每条博客,每个key下的value集合代表所有点赞的用户id集合。

点赞功能

  1. public Result likeBlog(Long id) {
  2. //对blog点赞
  3. /**
  4. * 要实现一篇blog一个人只能点赞一次,就需要知道当前Blog被哪些用户点赞过,而且登录用户需要知道自己是否点赞过
  5. * 最直接的做法是在数据库中维护一张表,记录每个用户点赞的blog,性能较差
  6. * 采用:在redis中以blogId为key,set为值,set中存放userId
  7. */
  8. //1.获取当前用户
  9. UserDTO user = UserHolder.getUser();
  10. if(user==null) return Result.fail("请先登录!");
  11. Long userId = user.getId();
  12. //2.判断是否点赞过
  13. String key = BLOG_LIKED_KEY + id;
  14. Boolean isLike = stringRedisTemplate.opsForSet().isMember(key, userId.toString());
  15. //3.1 点赞过
  16. if(BooleanUtil.isTrue(isLike)){
  17. //取消点赞并在set中移除该用户
  18. boolean isSuccess = update().setSql("liked = liked - 1").eq("id", id).update();
  19. if(isSuccess){
  20. stringRedisTemplate.opsForSet().remove(key, userId.toString());
  21. }
  22. }else{
  23. //点赞并在set中添加该用户
  24. boolean isSuccess = update().setSql("liked = liked + 1").eq("id", id).update();
  25. if(isSuccess){
  26. stringRedisTemplate.opsForSet().add(key, userId.toString());
  27. }
  28. }
  29. return Result.ok();
  30. }

修改首页博客和根据id查询博客

  1. @Override
  2. public Result queryBlogById(Long id) {
  3. //1.查询blog
  4. Blog blog = getById(id);
  5. if(blog == null){
  6. return Result.fail("该blog不存在!");
  7. }
  8. //2.查询用户
  9. queryBlogUser(blog);
  10. //3.查询是否点赞
  11. UserDTO user = UserHolder.getUser();
  12. if(user != null){
  13. //当用户不为空时
  14. isBlogLike(blog);
  15. }
  16. return Result.ok(blog);
  17. }
  18. @Override
  19. public Result queryHotBlog(Integer current) {
  20. // 根据用户查询
  21. Page<Blog> page = query()
  22. .orderByDesc("liked")
  23. .page(new Page<>(current, SystemConstants.MAX_PAGE_SIZE));
  24. // 获取当前页数据
  25. List<Blog> records = page.getRecords();
  26. // 查询用户
  27. records.forEach(blog -> {
  28. this.queryBlogUser(blog);
  29. this.isBlogLike(blog);
  30. });
  31. return Result.ok(records);
  32. }

抽象出的共同方法

  1. private void queryBlogUser(Blog blog) {
  2. Long userId = blog.getUserId();
  3. User user = userService.getById(userId);
  4. blog.setIcon(user.getIcon());
  5. blog.setName(user.getNickName());
  6. }
  7. private void isBlogLike(Blog blog) {
  8. UserDTO user = UserHolder.getUser();
  9. if(user != null){
  10. //当用户不为空时
  11. Long userId = user.getId();
  12. String key = BLOG_LIKED_KEY + blog.getId();
  13. Boolean isLike = stringRedisTemplate.opsForSet().isMember(key, userId.toString());
  14. blog.setIsLike(BooleanUtil.isTrue(isLike));
  15. }

4.4 点赞排行榜

使用sortedSet来实现排行榜功能

1. 使用sortedSet改造之前的基于set实现的点赞功能(sortedSet没有Ismember这种方法,通过判断取出的键的分数是否为空来判断)

2. 这里需要注意,因为mysql自己会做优化,类似于where id in(5,1) 会被优化为(1,5),所以要用 where id in(5,1) order by field(id, 5, 1)

  1. @Override
  2. public Result queryBlogLikes(Long id) {
  3. String key = BLOG_LIKED_KEY + id;
  4. //1. 查询top5的点赞用户
  5. Set<String> top5ByTime = stringRedisTemplate.opsForZSet().range(key, 0, 4);
  6. //2. 取出其中的用户id
  7. if(top5ByTime == null || top5ByTime.isEmpty()){
  8. return Result.ok(Collections.emptyList());
  9. }
  10. List<Long> ids = top5ByTime.stream().map(Long::valueOf).collect(Collectors.toList());
  11. //3. 根据用户id查询
  12. String idStr = StrUtil.join(",", ids);
  13. List<UserDTO> userDTOS = userService.query()
  14. .in("id", ids)
  15. .last("order by FIELD(id," + idStr + ")")
  16. .list()
  17. .stream()
  18. .map(user -> BeanUtil.copyProperties(user, UserDTO.class))
  19. .collect(Collectors.toList());
  20. //4.返回
  21. return Result.ok(userDTOS);
  22. }

5. 好友关注

基于Set集合的关注,取关,共同关注,消息推送等功能

5.1 关注和取关

使用tb_follow表保存关注信息

逻辑很简单,就是表中插入一条数据和删除一条数据

5.2 查看他人主页

  1. // UserController 根据id查询用户
  2. @GetMapping("/{id}")
  3. public Result queryUserById(@PathVariable("id") Long userId){
  4. // 查询详情
  5. User user = userService.getById(userId);
  6. if (user == null) {
  7. return Result.ok();
  8. }
  9. UserDTO userDTO = BeanUtil.copyProperties(user, UserDTO.class);
  10. // 返回
  11. return Result.ok(userDTO);
  12. }
  13. // BlogController
  14. @GetMapping("/of/user")
  15. public Result queryBlogByUserId(
  16. @RequestParam(value = "current", defaultValue = "1") Integer current,
  17. @RequestParam("id") Long id) {
  18. // 根据用户查询
  19. Page<Blog> page = blogService.query()
  20. .eq("user_id", id).page(new Page<>(current, SystemConstants.MAX_PAGE_SIZE));
  21. // 获取当前页数据
  22. List<Blog> records = page.getRecords();
  23. return Result.ok(records);
  24. }

 5.3 共同关注

在保存关注信息时,在redis中使用set存储用户的所有关注

利用set的交集实现共同关注

  1. @Override
  2. @Transactional
  3. public Result followById(Long followUserId, Boolean isFollow) {
  4. UserDTO user = UserHolder.getUser();
  5. Long userId = user.getId();
  6. String key = FOLLOW_USER_ID + userId;
  7. if(isFollow){
  8. //关注用户
  9. Follow follow = new Follow();
  10. follow.setUserId(userId);
  11. follow.setFollowUserId(followUserId);
  12. boolean isSuccess = save(follow);
  13. if(isSuccess){
  14. //将关注信息保存到Redis中
  15. stringRedisTemplate.opsForSet().add(key, followUserId.toString());
  16. }
  17. }else{
  18. //取关
  19. LambdaQueryWrapper<Follow> wrapper = new LambdaQueryWrapper<>();
  20. wrapper.eq(Follow::getUserId, userId).eq(Follow::getFollowUserId, followUserId);
  21. boolean isSuccess = remove(wrapper);
  22. if(isSuccess){
  23. stringRedisTemplate.opsForSet().remove(key, followUserId.toString());
  24. }
  25. }
  26. return Result.ok();
  27. }
  28. @Override
  29. public Result isFollow(Long followUserId) {
  30. UserDTO user = UserHolder.getUser();
  31. Long userId = user.getId();
  32. LambdaQueryWrapper<Follow> wrapper = new LambdaQueryWrapper<>();
  33. wrapper.eq(Follow::getUserId, userId).eq(Follow::getFollowUserId, followUserId);
  34. int count = count(wrapper);
  35. return Result.ok(count > 0);
  36. }
  37. @Override
  38. public Result common(Long userId) {
  39. Long currentUserId = UserHolder.getUser().getId();
  40. String key1 = FOLLOW_USER_ID + userId;
  41. String key2 = FOLLOW_USER_ID + currentUserId;
  42. //获取两者的交集
  43. Set<String> intersect = stringRedisTemplate.opsForSet().intersect(key1, key2);
  44. if(intersect == null || intersect.isEmpty()){
  45. return Result.ok(Collections.emptyList());
  46. }
  47. //获取ids
  48. List<Long> ids = intersect.stream().map(Long::valueOf).collect(Collectors.toList());
  49. //根据ids获取userDto
  50. List<UserDTO> userDTOS = userService.listByIds(ids).stream().map(user -> BeanUtil.copyProperties(user, UserDTO.class)).collect(Collectors.toList());
  51. return Result.ok(userDTOS);
  52. }

5.4 关注推送

5.4.1 Feed流分析

关注推送也叫做 Feed 流,直译为投喂。为用户持续的提供 “沉浸式” 的体验,通过无限下拉刷新获取新的信息。

Feed 流产品有两种常见模式:

Timeline:不做内容筛选,简单的按照内容发布时间排序,常用于好友或关注。例如朋友圈

优点:信息全面,不会有缺失。并且实现也相对简单
缺点:信息噪音较多,用户不一定感兴趣,内容获取效率低

智能排序:利用智能算法屏蔽掉违规的、用户不感兴趣的内容。推送用户感兴趣信息来吸引用户

例如抖音,快手

优点:投喂用户感兴趣信息,用户粘度很高,容易沉迷
缺点:如果算法不精准,可能起到反作用

本例中的个人页面,是基于关注的好友来做 Feed 流,采用 Timeline 的模式。
该模式的实现方案有三种:拉模式、推模式、推拉结合

拉模式:也叫做读扩散
每次读的时候获取消息,内存消耗小,但读操作过于频繁,若用户关注了许多博主,一次要读的消息也是十分多,造成延迟较高

推模式:也叫做写扩散。
发消息时写入粉丝收件箱,内存占用更高,写操作频繁,若博主有许多粉丝,写操作更加繁重

推拉结合模式:也叫做读写混合,兼具推和拉两种模式的优点。
普通博主,粉丝少,可以采用推模式,写操作并不是很繁重
大v博主,粉丝多;分两种粉丝,活跃粉,普通粉;活跃粉,数量少,可以采用推模式;普通粉,数量多,但上线查看少,采用拉模式,什么时候看什么时候拉取。

5.4.2 推送到粉丝收件箱

①修改新增探店笔记的业务,在保存 blog 到数据库的同时,推送到粉丝的收件箱
②收件箱满足可以根据时间戳排序,用 Redis 的数据结构实现
③查询收件箱数据时,可以实现分页查询

Feed 流中的数据会不断更新,所以数据的角标也在变化,因此不能采用传统的分页模式(会导致重复读取)。

  1. @Override
  2. public Result saveBlog(Blog blog) {
  3. // 1. 获取登录用户
  4. Long userId = UserHolder.getUser().getId();
  5. blog.setUserId(userId);
  6. // 2. 保存探店博文
  7. boolean isSuccess = save(blog);
  8. if(!isSuccess){
  9. return Result.fail("发布失败,请重试!");
  10. }
  11. // 3. 推送到粉丝收件箱
  12. // 3.1 获取所有粉丝
  13. List<Follow> follows = followService.query().eq("follow_user_id", userId).list();
  14. if(follows == null || follows.isEmpty()){
  15. // 返回id
  16. return Result.ok(blog.getId());
  17. }
  18. //3.2 向每位粉丝的收件箱推送blog
  19. for(Follow follow : follows){
  20. String key = FEED_KEY + follow.getUserId();
  21. stringRedisTemplate.opsForZSet().add(key, blog.getId().toString(), System.currentTimeMillis());
  22. }
  23. // 返回id
  24. return Result.ok(blog.getId());
  25. }

5.4.3 滚动分页

分页查询中的几个查询参数需要注意

redis中分析滚动查询

 

  1. @Override
  2. public Result queryFollowBlog(Long max, Long offset) {
  3. //1. 获取登录用户
  4. Long userId = UserHolder.getUser().getId();
  5. //2. 分页查询收件箱内容 ZREVRANGEBYSCORE key Max Min LIMIT offset count limit是小于等于的意思,小于等于查询的最后时间戳
  6. String key = FEED_KEY + userId;
  7. Set<ZSetOperations.TypedTuple<String>> blogIdAndScores = stringRedisTemplate.opsForZSet().reverseRangeByScoreWithScores(key, 0, max, offset, 3);
  8. //2.1 没有关注内容
  9. if(blogIdAndScores == null || blogIdAndScores.isEmpty()){
  10. return Result.ok(Collections.emptyList());
  11. }
  12. //2.2 解析数据 blogId,minTime(时间戳), offset
  13. List<Long> blogIds = new ArrayList<>(blogIdAndScores.size());
  14. long minTime = 0;
  15. int count = 1; //score等于minTime的记录的条数
  16. for(ZSetOperations.TypedTuple<String> blogIdAndScore : blogIdAndScores){
  17. blogIds.add(Long.valueOf(blogIdAndScore.getValue()));
  18. long score = blogIdAndScore.getScore().longValue();
  19. if(score == minTime){
  20. count++;
  21. }else{
  22. minTime = score;
  23. count = 1;
  24. }
  25. }
  26. //2.3 查询blog
  27. String idStr = StrUtil.join(",", blogIds);
  28. List<Blog> blogs = query().in("id", blogIds).last("order by field(id," + idStr + ")").list();
  29. for(Blog blog : blogs){
  30. //查询用户
  31. queryBlogUser(blog);
  32. //查询是否点赞
  33. isBlogLike(blog);
  34. }
  35. ScrollResult r = new ScrollResult();
  36. r.setList(blogs);
  37. r.setOffset(count);
  38. r.setMinTime(minTime);
  39. return Result.ok(r);
  40. }

6. 附近商户功能

6.1 GEO基本用法

GEO 就是 Geolocation 的简写形式,代表地理坐标。

Redis 在 3.2 版本中加入了对 GEO 的支持,允许存储地理坐标信息,帮助我们根据经纬度来检索数据。

常见的命令有:

GEOADD:添加一个地理空间信息,包含:经度(longitude)、纬度(latitude)、值(member)

GEODIST:计算指定的两个点之间的距离并返回

GEOHASH:将指定 member 的坐标转为 hash 字符串形式并返回

GEOPOS:返回指定member的坐标

GEORADIUS:指定圆心、半径,找到该圆内包含的所有 member,并按照与圆心之间的距离排序后返回。6.2 以后已废弃

GEOSEARCH:在指定范围内搜索 member,并按照与指定点之间的距离排序后返回。范围可以是圆形或矩形。6.2 新功能

GEOSEARCHSTORE:与 GEOSEARCH 功能一致,不过可以把结果存储到一个指定的 key。 6.2.新功能

6.2 功能实现

6.2.1 添加缓存

按照商户类型做分组,类型相同的商户作为同一组,以typeld为key存入同一个GEO集合中即可

  1. @Test
  2. void loadShopData() {
  3. List<Shop> shopList = shopService.list();
  4. //按照type分类
  5. Map<Long, List<Shop>> map = shopList.stream().collect(Collectors.groupingBy(Shop::getTypeId));
  6. //分批写入
  7. for(Map.Entry<Long, List<Shop>> entry : map.entrySet()){
  8. Long typeId = entry.getKey();
  9. String key = "shop:geo:" + typeId;
  10. List<Shop> shops = entry.getValue();
  11. List<RedisGeoCommands.GeoLocation<String>> locations = new ArrayList<>(shops.size());
  12. for(Shop shop : shops){
  13. locations.add(new RedisGeoCommands.GeoLocation<>(shop.getId().toString(), new Point(shop.getX(), shop.getY())));
  14. }
  15. stringRedisTemplate.opsForGeo().add(key, locations);
  16. }
  17. }

6.2.2 实现查找附近商铺功能

功能逻辑很直接,

1. 判断输入参数是否需要查询附近

2.计算分页参数,根据typeId在Redis中查询

3.返回结果不为空时,对返回结果处理

3.1 GEO中我们存的只有id,最后查询还是要落到数据库上,所以要先取出id

3.2 由于分页,我们需要截取结果中的指定部分,这里注意截取之后的结果可能为空

3.3. 为取出的shop赋予distance属性

4. 返回结果

  1. @Override
  2. public Result queryShopByType(Integer typeId, Integer current, Double x, Double y) {
  3. //1. 判断是否为普通查询
  4. if(x == null || y == null){
  5. // 根据类型分页查询
  6. Page<Shop> page = query()
  7. .eq("type_id", typeId)
  8. .page(new Page<>(current, SystemConstants.DEFAULT_PAGE_SIZE));
  9. // 返回数据
  10. return Result.ok(page.getRecords());
  11. }
  12. //2. 计算分页参数
  13. int start = (current - 1) * DEFAULT_BATCH_SIZE, end = current * DEFAULT_BATCH_SIZE;
  14. //3. 根据类型在Redis中查询
  15. String key = SHOP_GEO_KEY + typeId;
  16. GeoResults<RedisGeoCommands.GeoLocation<String>> geoResults = stringRedisTemplate.opsForGeo().search(
  17. key,
  18. GeoReference.fromCoordinate(x, y),
  19. new Distance(5000),
  20. RedisGeoCommands.GeoSearchCommandArgs.newGeoSearchArgs().includeDistance().limit(end));
  21. if (geoResults == null) {
  22. return Result.ok(Collections.emptyList());
  23. }
  24. //4. 解析出id
  25. List<GeoResult<RedisGeoCommands.GeoLocation<String>>> content = geoResults.getContent();
  26. if(content.size() <= start){
  27. //后面要跳过start个元素,如果此时元素数量小于start
  28. return Result.ok(Collections.emptyList());
  29. }
  30. //4.1 截取start~end部分
  31. List<Long> ids = new ArrayList<>(content.size());
  32. Map<String, Distance> distanceMap = new HashMap<>(content.size());
  33. content.stream().skip(start).forEach(result -> {
  34. String idStr = result.getContent().getName();
  35. ids.add(Long.valueOf(idStr));
  36. distanceMap.put(idStr, result.getDistance());
  37. });
  38. //4.2 根据id取出shop
  39. String idStr = StrUtil.join(",", ids);
  40. List<Shop> shops = query().in("id", ids).last("order by FIELD(id," + idStr + ")").list();
  41. //4.3 给shop赋上distance属性
  42. shops.forEach(shop -> shop.setDistance(distanceMap.get(shop.getId().toString()).getValue()));
  43. return Result.ok(shops);
  44. }

7. 用户签到

7.1 bitmap

假如用一张表来存储用户签到信息,每个用户的每次签到都是一次记录,会占用大量的空间

使用bitmap可以极大地改善。

我们按月来统计用户签到信息,签到记录为 1,未签到则记录为 0

把每一个 bit 位对应当月的每一天,形成了映射关系。用0和1标示业务状态,这样一个月也只消耗31位(4字节)这种思路就称为位图(BitMap)

Redis 中 是利用 string 类型数据结构实现 BitMap,因此最大上限是 512M,转换为 bit 则是 2^32个 bit 位。

BitMap 的操作命令有:

SETBIT:向指定位置(offset)存入一个 0 或 1

GETBIT :获取指定位置(offset)的 bit 值

BITCOUNT :统计 BitMap 中值为 1 的 bit 位的数量

BITFIELD :操作(查询、修改、自增)BitMap中bit数组中的指定位置(offset)的值

BITFIELD_RO :获取 BitMap 中 bit 数组,并以十进制形式返回

BITOP :将多个 BitMap 的结果做位运算(与 、或、异或)

BITPOS :查找 bit 数组中指定范围内第一个 0 或 1 出现的位置

7.2 签到功能

  1. @Override
  2. public Result sign() {
  3. //1.当前用户
  4. Long userId = UserHolder.getUser().getId();
  5. //2.当前日期
  6. LocalDateTime now = LocalDateTime.now();
  7. //3.签到
  8. String keySuffix = now.format(DateTimeFormatter.ofPattern(":yyyyMM"));
  9. String key = USER_SIGN_KEY + userId + keySuffix;
  10. stringRedisTemplate.opsForValue().setBit(key, now.getDayOfMonth() - 1, true);
  11. return Result.ok();
  12. }

7.3 签到统计

统计本月到今天为止的连续签到天数

  1. @Override
  2. public Result signCount() {
  3. //1.当前用户
  4. Long userId = UserHolder.getUser().getId();
  5. //2.当前日期
  6. LocalDateTime now = LocalDateTime.now();
  7. //3.查询签到记录
  8. String keySuffix = now.format(DateTimeFormatter.ofPattern(":yyyyMM"));
  9. String key = USER_SIGN_KEY + userId + keySuffix;
  10. List<Long> result = stringRedisTemplate.opsForValue().bitField(
  11. key,
  12. BitFieldSubCommands.create().get(BitFieldSubCommands.BitFieldType.unsigned(now.getDayOfMonth())).valueAt(0)
  13. );
  14. //没有任何签到结果
  15. if(result == null || result.isEmpty()){
  16. return Result.ok(0);
  17. }
  18. Long signed = result.get(0);
  19. //本月没有签到
  20. if(signed == null || signed == 0){
  21. return Result.ok(0);
  22. }
  23. int count = 0;
  24. while ((signed & 1) != 0) {
  25. count++;
  26. signed >>>= 1;
  27. }
  28. return Result.ok(count);
  29. }

8. UV统计

Redis的HyperLogLog的统计功能

UV:全称 Unique Visitor,也叫独立访客量,是指通过互联网访问、浏览这个网页的自然人。1 天内同一个用户多次访问该网站,只记录1次。

PV:全称Page View,也叫页面访问量或点击量,用户每访问网站的一个页面,记录 1 次PV,用户多次打开页面,则记录多次PV。

往往用来衡量网站的流量。

Hyperloglog(HLL)是从 Loglog 算法派生的概率算法,用于确定非常大的集合的基数,而不需要存储其所有值。

相关算法原理可以参考:https://juejin.cn/post/6844903785744056333#heading-0

Redis 中的 HLL 是基于 string 结构实现的,单个 HLL 的内存永远小于 16 kb,内存占用低,但相对的其测量结果是概率性的,有小于 0.81% 的误差。不过对于 UV 统计的庞大数量来说,这完全可以忽略。

通过单元测试,向 HyperLogLog 中添加 100 万条数据

  1. @Test
  2. void testHyperLogLog() {
  3. String[] values = new String[1000];
  4. int j = 0;
  5. for (int i = 0; i < 1000000; i++) {
  6. j = i % 1000;
  7. values[j] = "user_" + i;
  8. if (j == 999) {
  9. // 发送到 Redis
  10. stringRedisTemplate.opsForHyperLogLog().add("hl2", values);
  11. }
  12. }
  13. // 统计数量
  14. Long count = stringRedisTemplate.opsForHyperLogLog().size("hl2");
  15. System.out.println("count = " + count);
  16. }

总结

  • HyperLogLog 的作用:做海量数据的统计工作

  • HyperLogLog 的优点:内存占用极低、性能非常好

  • HyperLogLog 的缺点:有一定的误差

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/724596
推荐阅读
相关标签
  

闽ICP备14008679号