当前位置:   article > 正文

大数据-spark、hadoop、hbase错误汇总_regionserver.hregionserver: ***** aborting region

regionserver.hregionserver: ***** aborting region server hdfs02.rafiki.io,16

 

1. Name node is in safe mode

  1. # 强制离开安全模式
  2. hadoop dfsadmin -safemode leave
  3. 参数value的说明如下:
  4. enter - 进入安全模式
  5. leave - 强制NameNode离开安全模式
  6. get - 返回安全模式是否开启的信息
  7. wait - 等待,一直到安全模式结束。

2. spark thrift mysql: Specified key was too long; max key length is 767 bytes

数据库使用的字符集为utf8,改为latin1,重建表

3. spark hdfs:Caused by: java.io.IOException: Filesystem closed

  1. 解决办法:
  2. 第一种方法:
  3. 源代码:FileSystem fs = FileSystem.get(URI.create(hdfsFilePath), config);
  4. 改为: FileSystem fs = FileSystem.newInstance(URI.create(hdfsFilePath), config);
  5. 第二种方法:
  6. 在hdfs core-site.xml里把fs.hdfs.impl.disable.cache设置为true
  7. 多个datanode在getFileSystem过程中,由于Configuration一样,会得到同一个FileSystem。
  8. 如果有一个datanode在使用完关闭连接,其它的datanode在访问就会出现上述异常

4. Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploading libraries under SPA

  1. 每次提交spark任务到yarn的时候,总会出现uploading resource(打包spark jars并上传)到hdfs上。
  2. 恶劣情况下,会在这里卡住很久。
  3. 17/01/13 17:21:47 INFO Client: Preparing resources for our AM container
  4. 17/01/13 17:21:47 WARN Client: Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploadi
  5. ng libraries under SPARK_HOME.
  6. 17/01/13 17:21:
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/煮酒与君饮/article/detail/829907
推荐阅读
相关标签
  

闽ICP备14008679号