当前位置:   article > 正文

【面试必问系列】之分布式锁三种实现方式_分布式锁的三种实现方式

分布式锁的三种实现方式

题记:分布式锁三种实现方式:

  • 基于数据库实现分布式锁;
  • 基于缓存(Redis等)实现分布式锁(AP)
  • 基于Zookeeper实现分布式锁(CP)。

从性能角度(从高到低)来看:“缓存方式>Zookeeper方式>=数据库方式”。

说起分布式的概念,首当其冲就是CAP理论,即满足一致性(Consistency)、可用性(Availability)和分区容错性(Partition tolerance)。但是CAP理论告诉我们,任何系统只能满足其中两个。

一、数据库实现分布式锁

1. 悲观锁

利用select … where … for update 排他锁。阻塞的,容易锁表。

2. 乐观锁

update version通过增加递增的版本号字段实现乐观锁。

3、 基于数据库表获取
获取锁时,只要执行insert语句
insert into lock_table(“method_name”,“time”);
释放锁,delete
当然还有其他许多问题需要解决,可重入、定时扫描过期时间等

二、Redis分布式锁

1、Redis分布式锁方案一:简化版setnx命令:

if (jedis.setnx(lockKey, val) == 1) { 
jedis.expire(lockKey, timeout);
}
  • 1
  • 2
  • 3

很显然,加锁操作和后面的设置超时时间是分开的,并非原子操作。假如加锁成功,但是设置超时时间失败了,该lockKey就变成永不失效

2、Redis分布式锁方案二:SET的扩展命令(SET EX PX NX)

set(lockKey, requestId, “NX”, “PX”, expireTime)命令,该命令可以指定多个参数。

String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime);
if ("OK".equals(result)) {
return true;
}
return false;
  • 1
  • 2
  • 3
  • 4
  • 5

其中:
lockKey:锁的标识
requestId:请求id
NX:只在键不存在时,才对键进行设置操作。
PX:设置键的过期时间为 millisecond 毫秒。
expireTime:过期时间

满足了原子性,但是每次都要达到了超时时间才释放锁,显然也不是很合理,那么如何手工释放锁?

finally中释放锁+全局唯一标识

try{
 String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime);
 if ("OK".equals(result)) {
     return true; 
 }
   return false;
 } finally {
  if (jedis.get(lockKey).equals(requestId)) {  
     jedis.del(lockKey);
     return true;
     }
     return false;
 }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

无论代码执行成功或失败了,都需要释放锁。如果有异常了,到达超时时间,锁还是会被redis自动释放。
看起来很合适了,那有没有别的问题呢?

jedis.get(lockKey).equals(requestId)判断是不是当前线程加的锁和释放锁动作,不是一个原子操作。如果调用jedis.del()释放锁的时候,可能这把锁已经不属于当前客户端,会解除他人加的锁
另外,还是可能存在锁过期释放,业务没执行完的问题。

还是不够完美~

3、Redis分布式锁方案三:Redis+Lua

Redis+Lua,可以说是专门为解决原子问题而生。Lua专门整合原子操作。有了 Lua 的特性,Redis 才真正在分布式锁、秒杀等场景,有了用武之地。

为什么要用Lua脚本呢?因为一段复杂的业务逻辑,可以通过封装在Lua脚本中发送给Redis,保证这段复杂业务逻辑执行的原子性(包含setnx和expire两条指令),lua脚本如下.

if redis.call( 'setnx',KEYS[1],ARGV[1]) == 1 then
redis.call('expire',KEYS[1],ARGV[2])
else
return 0
end;
  • 1
  • 2
  • 3
  • 4
  • 5

加锁代码如下:

String lua_scripts = "if redis.call('setnx',KEYS[1],ARGV[1]) == 1 then" +
" redis.call( 'expire',KEYS[1],ARGV[2]) return 1 else return 0 end";
Object result = jedis.eval(lua scripts, Collections.singletonList(key resource id), Collections.singletonList(values));
//判断是否成功
return result.equals(1L);
  • 1
  • 2
  • 3
  • 4
  • 5

4、Redis分布式锁方案四:Redisson框架
如果锁达到了超时时间,但业务代码还没执行完怎么办?
当前开源框架Redisson解决了这个问题。我们一起来看下Redisson底层原理图吧:
在这里插入图片描述
只要线程一加锁成功,就会启动一个watch dog看门狗,它是一个后台线程,会每隔10秒检查一下,如果线程1还持有锁,那么就会不断的延长锁key的生存时间。因此,Redisson就是使用Redisson解决了锁过期释放,业务没执行完问题。

看门狗可以通过定时任务不断刷新锁的获取事件,从而在用户获取锁到释放锁期间保持一直持有锁。

eg:我们可以使用TimerTask类,来实现自动续期的功能:
获取锁之后,自动开启一个定时任务,每隔10秒钟,自动刷新一次过期时间。
这种机制就是redisson框架中的watch dog

Timer timer = new Timer();
 timer.schedule(new TimerTask() {
 @Overridepublicvoidrun(Timeout timeout)throws Exception {
   //自动续期逻辑
  }
 }, 10000, TimeUnit.MILLISECONDS);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

5、Redis分布式锁方案五: Redlock+Redisson
在这里插入图片描述
如果线程一在Redis的master节点上拿到了锁,但是加锁的kev还没同步到slave节点。恰好这时,master节点发生故障,一个slave节点就会升级为master节点。线程二就可以获取同个key的锁啦,但线程一也已经拿到锁了,锁的安全性就没了。

为了解决这个问题,Redis作者 antirez提出一种高级的分布式锁算法: Redlock

Redlock核心思想是这样的:搞多个Redis master部署,以保证它们不会同时岩掉。并且这些master节点是完全相互独立的,相互之间不存在数据同步。同时,需要确保在这多个master实例上,是与在Redis单实例,使用相同方法来获取和释放锁。我们假设当前有5个Redis master节点,在5台服务器上面运行这些Redis实例。
在这里插入图片描述
RedLock的实现步骤如下:

  • 获取当前时间,以毫秒为单位。
  • 按顺序向5个master节点请求加锁。客户端设置网络连接和响应超时时间,并且超时时间要小于锁的失效时间。(假设锁自动失效时间为10秒,则超时时间一般在5-50毫秒之间,我们就假设超时时间是50ms吧)。如果超时,跳过该master节点,尽快去尝试下一个master节点。
  • 客户端使用当前时间减去开始获取锁时间(即步骤1记录的时间),得到获取锁使用的时间。当且仅当超过一半(N/2+1,这里是5/2+1=3个节点)的Redis master节点都获得锁,并目使用的时间小于锁失效时间时,锁才算获取成功。(如上图,10s> 30ms+40ms+50ms+4m0s+50ms)
  • 如果取到了锁,key的真正有效时间就变啦,需要减去获取锁所使用的时间。
  • 如果获取锁失败(没有在至少N/2+1个master实例取到锁,有或者获取锁时间已经超过了有效时间,客户端要在所有的master节点上解锁(即便有些master节点根本就没有加锁成功,也需要解锁,以防止有些漏网之鱼)

简化下步骤就是:

  • 按顺序向5个master节点请求加锁
  • 根据设置的超时时间来判断,是不是要跳过该master节点。
  • 如果大于等于3个节点加锁成功,并且使用的时间小于锁的有效期,即可认定加锁成功啦
  • 如果获取锁失败,解锁!
  • Redisson实现了redLock版本的锁,有兴趣的小伙伴,可以去了解一下哈

三、基于Zookeeper实现分布式锁

ZooKeeper是一个为分布式应用提供一致性服务的开源组件,它内部是一个分层的文件系统目录树结构,规定同一个目录下只能有一个唯一文件名。基于ZooKeeper实现分布式锁的步骤如下:

1)创建一个目录mylock;
(2)线程A想获取锁就在mylock目录下创建临时顺序节点;
(3)获取mylock目录下所有的子节点,然后获取比自己小的兄弟节点,如果不存在,则说明当前线程顺序号最小,获得锁;
(4)线程B获取所有节点,判断自己不是最小节点,设置监听比自己次小的节点;
(5)线程A处理完,删除自己的节点,线程B监听到变更事件,判断自己是不是最小的节点,如果是则获得锁。
  • 1
  • 2
  • 3
  • 4
  • 5

通常使用ZooKeeper的一个客户端Curator,Curator提供的InterProcessMutex是分布式锁的实现,acquire方法用于获取锁,release方法用于释放锁。

四、总结(优缺点)

数据库锁:

  • db操作性能较差,并且有锁表的风险
  • 非阻塞操作失败后,需要轮询,占用cpu资源;

redis分布式锁:

  • 主从切换的情况下可能出现多客户端获取锁的情况;
  • Lua脚本在单机上具有原子性,主从同步时不具有原子性

基于Zookeeper的分布式锁:

  • 需要引入Zookeeper集群,比较重量级;
  • 具备高可用、可重入、阻塞锁特性,可解决失效死锁问题。
  • 因为需要频繁的创建和删除节点,性能上不如Redis方式。

小结:

  • 如果你的实际业务场景,更需要的是保证数据一致性。那么请使用CP类型的分布式锁,比如:zookeeper
  • 如果你的实际业务场景,更需要的是保证数据高可用性。那么请使用AP类型的分布式锁,比如:redis;
  • 通常redis足够用了,通过最终一致性大部分即可满足需求了,强一致性实时数据还是要依赖数据库的事务。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/一键难忘520/article/detail/776330
推荐阅读
相关标签
  

闽ICP备14008679号