赞
踩
现在作者附上两种解决方法,我是使用了第二种方法成功的。
在hadoop集群当中的所有节点将中的tmp文件删除和logs文件里面的内容删除里面的的内容,然后重新初始化NameNode。
hdfs NameNode -format
在core-site.xml文件里面查看自己tmp文件的位置:
hadoop路径下etc/hadoop路径下面,每个人hadoop安装的路径可能不同,我的是
/home/hadoop/software/hadoop-3.3.0/etc/hadoop
就可以了,如果这不行的话,就使用第二种解决方法,这个是能得吃的。
将主节点的hadoop的包删掉,从从节点将hadoop的包用scp传输过去,因为集群当中的hadoop的包里面的内容都是一样的。
scp -r hadoop-3.3.0/ hadoop@192.168.19.63:/home/hadoop/software
前面的目录是自己从节点的hadoop包,然后后面的目录是要传输到主节点的目录。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。