当前位置:   article > 正文

linux下成功安装hadoop_linux安装wget hadoop

linux安装wget hadoop

一、下载hadoop
终端输入:Weget http://archive.apache.org/dist/hadoop/core/hadoop-2.7.2/hadoop-2.7.2.tar.gz

################### hadoop下载地址#################
https://blog.csdn.net/chanson_dog/article/details/78997227
archive.apache.org/dist/hadoop/core/hadoop-2.7.2/
###################################################

二、安装hadoop
参考博文(1)

解压

sudo tar xzf hadoop-2.7.2.tar.gz

将hadoop拷贝到/usr/local/hadoop下

sudo mv hadoop-2.7.2 /usr/local/hadoop

赋予用户对该文件夹的读写权限

sudo chmod 774 /usr/local/hadoop

使用 vim 编辑添加hadoop与java环境

sudo vim /etc/profile

添加如下:
#java的安装路径(不知到使用which java查看)
export JAVA_HOME=/usr/local/java1/jdk1.8.0_181
export CLASSPATH=".: J A V A H O M E / l i b : JAVA_HOME/lib: JAVAHOME/lib:CLASSPATH"
export PATH=“ J A V A H O M E / b i n : JAVA_HOME/bin: JAVAHOME/bin:PATH”
export HADOOP_PATH=/usr/local/hadoop
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin # 添加hadoop安装路径(也可以使用which hadoop查看)

#使添加环境变量生效
Source /etc/profile (千万别忘记,忘记可能会出错)

使用hadoop version查看配置是否成功

成功显示版本号等信息
至此hadoop安装成功,接下来配置hadoop运行环境

三、配置hadoop环境
配置/usr/local/hadoop/etc/hadoop下相关文件(进入以下文件需要线进入/hadoop下)
1.hadoop-env.sh配置如下
终端输入:sudo vim hadoop-env.sh
找到JAVA_HOME变量,修改为java的安装路径
JAVA_HOME = export /usr/local/java1/jdk1.8.0_181/jre (特别注意jre不能掉)

2.core-site.xml 配置如下:
终端输入:sudo vim core-site.xml

hadoop.tmp.dir /usr/local/hadoop/tmp Abase for other temporary directories. fs.defaultFS hdfs://localhost:9000

其中的hadoop.tmp.dir的路径可以根据自己的习惯进行设置(本人已经修改为自己熟悉的路径)

3.mapred-site.xml.template配置如下:

mapred.job.tracker localhost:9001 (此文件没有修改,直接粘贴)

4.hdfs-site.xml配置如下:

dfs.replication

1

dfs.namenode.name.dir

/usr/local/hadoop/tmp/dfs/name

dfs.datanode.data.dir

/usr/local/hadoop/tmp/dfs/data

其中dfs.namenode.name.dir和dfs.datanode.data.dir的路径可以自由设置,最好在hadoop.tmp.dir的目录下面。(本人已经修改,根据自己需要设置即可)

5.运行Hadoop:

在hadoop的根目录下 (在本例中,为/usr/local/hadoop)
cd /usr/local/hadoop #进入hadoop根目录下
bin/hdfs namenode -format #初始化HDFS系统
sbin/start-dfs.sh #开启NameNode和DataNode守护进程(遇到问题,已解決)stop-all.sh
启动成功后:在浏览器输入http://localhost:50070/ 进行测试
################启动失败解决方法###################
https://blog.csdn.net/haozhao_blog/article/details/50767009
###################################################

在安装好Hadoop后,每次输入命令都会出现下面警告(即提示hadoop不能加载本地库):

解决方法:
1.首先在bashrc中加入如下配置:

vim ~/.bashrc
在后面加入;

export HADOOP_HOME=/usr/local/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR= H A D O O P H O M E / l i b / n a t i v e e x p o r t H A D O O P O P T S = " − D j a v a . l i b r a r y . p a t h = HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path= HADOOPHOME/lib/nativeexportHADOOPOPTS="Djava.library.path=HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"

添加之后退出:source ~/.bashrc

####解决不能加载本地库的问题#############
博文地址:https://www.jianshu.com/p/f25a0caafcc6
###############################################

jps #查看进程信息

四、关闭hadoop进程
使用stop-all.sh关闭hadoop进程

stop-all.sh

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/1002541
推荐阅读
相关标签
  

闽ICP备14008679号