赞
踩
下载地址:
Index of /dist/hadoop/common/hadoop-3.1.3
tar -zxvf hadoop-3.1.3.tar.gz
pwd
结果如下:/mnt/soft/hadoop-3.1.3
vim /etc/profile
- #set hadoop environment
- export HADOOP_HOME=/mnt/soft/hadoop-3.1.3
- export PATH=$PATH:$HADOOP_HOME/bin
- export PATH=$PATH:$HADOOP_HOME/sbin
source /etc/profile
hadoop version
这只能说安装好了,但是不能用,接下来需要启动hadoop
在hadoop目录下的etc/hadoop中修改配置文件
cd /mnt/soft/hadoop-3.1.3/etc/hadoop/
vim hadoop-env.sh
设置java路径
export JAVA_HOME=/mnt/soft/jdk1.8.0_91
vim core-site.xml
- <configuration>
- <property>
- <name>fs.defaultFS</name>
- <value>hdfs://hadoop1:9000</value>
- </property>
-
- <property>
- <name>hadoop.tmp.dir</name>
- <value>/mnt/soft/hadoop-3.1.3/tmp</value>
- </property>
- </configuration>
其中hadoop1就是你本地的ip地址
vim hdfs-site.xml
- <configuration>
- <property>
- <name>dfs.replication</name>
- <value>1</value>
- </property>
- </configuration>
初始化名称节点名称
hdfs namenode -format
如果出现下图,说明初始化成功。
在sbin目录下,启动hdfs
start-dfs.sh
这个时候可能会出现错误。
这个原因是启动时需要设置启动账号。
vim start-dfs.sh
在start-dfs.sh最上面添加如下代码
- HDFS_DATANODE_USER=root
- HDFS_NAMENODE_USER=root
- HDFS_SECONDARYNAMENODE_USER=root
意思是,需要启动账号,当然,如果stop-dfs.sh也要加上。
这样也不能启动。还会出现如下错误。
报错原因是:
当我们输入ssh localhost 是需要输入密码的
解决方法是:
- ssh-keygen -t rsa
- # 在之后跳出的文字交互界面一路回车+yes即可
- cat id_rsa.pub >> authorized_keys
- # 将公钥追加到authorized_keys文件中去
- chmod 600 authorized_keys
- # 将authorized_keys文件权限更改为600
- # 至此设置免密操作完毕
当我们输入ssh localhost 是不需要输入密码的
这样再次启动,就成功了。
我们可以通过jsp语言来查看是否启动了。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。