当前位置:   article > 正文

zookeeper日志中Error KeeperErrorCode NoNode 错误的排查过程_keepererrorcode = nonode

keepererrorcode = nonode

一、需求背景

zookeeper日志中出现不少以下类似错误:

2021-05-11 09:03:28,004 [myid:3] - INFO  [ProcessThread(sid:3 cport:-1)::PrepRequestProcessor@648] - Got user-level KeeperException when processing sessionid:0x27918ca11740225 type:create cxid:0x1c3bbb zxid:0x20008db83 txntype:-1 reqpath:n/a Error Path:/dlock/dhy/330922966870720/GL/GL_Acc_Insert5601048 Error:KeeperErrorCode = NoNode for /dlock/dhy/330922966870720/GL/GL_Acc_Insert5601048

二、解决方案

由日志可以得出的信息:

1、dlock是我们项目中分布式锁使用的命名空间

2、dhy/330922966870720/GL/GL_Acc_Insert5601048是我们项目中一个模块中的分布式加锁点 [临时顺序节点]

3、其它加锁点有类似日志信息

分布式锁工具是经过测试并且在生产环境已经使用很长时间了,从功能上来说肯定是没有问题的,只是这条日志信息反馈了可能有实现不太优雅的地方,作为架构师要精益求精,解决方案不但要可行而且要优雅完美。

下面通过 源码分析org.apache.curator.framework获取分布式锁的过程来 寻找产生这条日志的根本原因。

三、代码实现

下面是我几年前写的一把分布式锁工具类(简化版)

  1. /**
  2. * 基于zookeeper的分布式锁实现
  3. * @author lvaolin
  4. * @create 18/3/7 上午10:38
  5. */
  6. public class DlockUtil {
  7. private static final Logger logger = LoggerFactory.getLogger(DlockUtil.class);
  8. private static final String ZK_LOCK_PATH = "/dhy/";
  9. private static CuratorFramework client = null;
  10. static {
  11. RetryPolicy retryPolicy = new RetryOneTime(60000);
  12. client = CuratorFrameworkFactory.builder()
  13. .connectString("127.0.0.1:2181")
  14. .connectionTimeoutMs(5000)
  15. .retryPolicy(retryPolicy)
  16. .namespace("dlock")
  17. .build();
  18. client.start();
  19. logger.info("zk client start successfully!");
  20. }
  21. /**
  22. * 获取分布式锁,如果获取失败会立刻返回,不会等待
  23. * 注意:调用方需要保留 此方法的 返回值,在finally里调用releaseDLock(lock) 进行锁释放
  24. *
  25. * @param orgId 企业ID
  26. * @param moduleName 业务模块名称 英文
  27. * @param lockName 锁名称(具体业务操作命名) 英文
  28. * @return 返回值为null 代表 获取锁失败,非null代表 获取锁成功
  29. */
  30. public static InterProcessMutex getDLock(String orgId, String moduleName, String lockName) {
  31. return getDLock(orgId, moduleName, lockName, 0);
  32. }
  33. /**
  34. * 获取分布式锁(可指定获取锁超时时间)
  35. * 注意:调用方需要保留 此方法的 返回值,在finally里调用releaseDLock(lock) 进行锁释放
  36. * InterProcessMutex.isAcquiredInThisProcess() 可以准确判断是否还持有锁
  37. *
  38. * @param orgId 企业ID
  39. * @param moduleName 业务模块名称 英文
  40. * @param lockName 锁名称(具体业务操作命名) 英文
  41. * @param second 超时时间 :-1代表一直堵塞,直到获取成功;0代表不等待,如果获取失败,立刻返回;大于0 则表示会尝试排队获取锁,直到超时就返回
  42. * @return 返回值为null 代表 获取锁失败,非null代表 获取锁成功
  43. */
  44. public static InterProcessMutex getDLock(String orgId, String moduleName, String lockName, long second) {
  45. if (client == null) {
  46. logger.error("client == null,未启用分布式锁DLOCK");
  47. return null;
  48. }
  49. InterProcessMutex lock = new InterProcessMutex(client, ZK_LOCK_PATH + orgId + "/" + moduleName + "/" + lockName);
  50. try {
  51. if (second == -1) {
  52. //-1代表一直堵塞下去直到获取成功
  53. logger.info("-1 正在获取分布式锁..." + Thread.currentThread().getName());
  54. lock.acquire();
  55. logger.info("获取分布式锁成功" + Thread.currentThread().getName());
  56. return lock;
  57. } else {
  58. //获取不到锁就返回获取锁失败
  59. logger.info(second + " 正在获取分布式锁..." + Thread.currentThread().getName());
  60. if (lock.acquire(second, TimeUnit.SECONDS)) {
  61. logger.info("获取分布式锁成功" + Thread.currentThread().getName());
  62. return lock;
  63. } else {
  64. return null;
  65. }
  66. }
  67. } catch (Exception e) {
  68. logger.error("获取分布式锁失败:" + e.getMessage(), e);
  69. return null;
  70. }
  71. }
  72. /**
  73. * 释放分布式锁
  74. * 注意:此方法需要在finally里进行调用
  75. *
  76. * @param lock 要释放的锁,来自于getDLock()的返回值
  77. */
  78. public static void releaseDLock(InterProcessMutex lock) {
  79. try {
  80. if (lock != null) {
  81. //判断是否还持有锁
  82. if (lock.isAcquiredInThisProcess()) {
  83. lock.release();
  84. //是否是最后一把锁
  85. if (!lock.isAcquiredInThisProcess()) {
  86. lock = null;
  87. }
  88. } else {
  89. lock = null;
  90. }
  91. logger.info("释放锁成功:" + Thread.currentThread().getName());
  92. } else {
  93. logger.info("无需释放" + Thread.currentThread().getName());
  94. }
  95. } catch (Exception e) {
  96. logger.error("释放分布式锁失败:" + e.getMessage(), e);
  97. }
  98. }
  99. }

关键代码:

//定义一把锁

InterProcessMutex lock = new InterProcessMutex(client, ZK_LOCK_PATH + orgId + "/" + moduleName + "/" + lockName);

//获取这把锁,返回值代表是否成功

boolean result = lock.acquire(second, TimeUnit.SECONDS)  

下面深究 lock.acquire的源代码(由于代码较多,我只贴关键代码了)

关键方法:InterProcessMutex.internalLock(long time, TimeUnit unit)

ffa63175fc118082661b5a7addfd34e4.png

看下internals.attemptLock 方法

532f17ceaef9b8bcd9b6c8e846836a2b.png

日志已经显示了是在创建节点时报的,所以看driver.createsTheLock就对了

关键代码,可以看到创建的是 "临时有序节点类型","自动创建父目录"

44ea8df8aaeca233c5e5e7f0faae26ba.png

4b9cde83790a52b8bf8e4eea87ea1d8c.png

看下protectedPathInForeground方法

e4ea6a763085b69f1441b3af35918da3.png

call方法关键内容如下:

b429139d004909bc9b35af7a3ccfee43.png

在这里我们找到了 NoNodeException的捕获,并且我们知道了是由于父节点不存在才抛出的异常。

ZKPaths.mkdirs 方法会自动创建所有的上级节点,只留末级节点不创建,最后再次创建末级节点一定能成功

至此,我们大致明白了错误的原因了。是因为要锁定的末级目录的父节点不存在造成的,框架自动处理了这种情况,默默的自动创建了父目录,所以在应用层是无感知的,只能在zookeeper的日志里发现此问题。

四、总结

1、zookeeper的原生api是不支持 自动创建父目录的。

2、apache.curator 框架封装了自动创建父目录的过程,应用层无感知,友好。

3、要解决zookeeper中日志打印的问题就需要在创建分布式锁之前判断并创建父目录,或者path中不带任何父目录直接追加末级节点。

4、不要忽略日志中的可疑日志,细究总是能发现问题。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/632715
推荐阅读
相关标签
  

闽ICP备14008679号