赞
踩
第一种方法是从Hadoop的官网去下载,可能网速比较慢。
第二种方法从国内的镜像源进行下载。我一般从清华大学镜像源去下载。(Hadoop清华大学镜像源内下载地址)
选择3.3.5版本进行下载。
下载后通过mobaXterm上传至bigdata01节点上的/opt/software路径下。然后通过下面命令进行解压到/opt/module路径下,并进行重命名为hadoop_pd。
sudo vim /etc/profile.d/bigdata_env.sh
在bigdata_env.sh中添加下面的内容。
#HADOOP
export HADOOP_HOME_PD=/opt/module/hadoop_pd
export PATH=$PATH:$HADOOP_HOME_PD/bin
然后使环境变量生效。
source /etc/profile
hadoop version
主要是对hadoop的几个配置文件进行修改。
[bduser@bigdata01 module]$ cd /opt/module/hadoop_pd/etc/hadoop/
在core-site.xml中添加如下内容:
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop_pd/tmp</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9082</value>
</property>
<property>
<name>hadoop.http.staticuser.user</name>
<value>atguigu</value>
</property>
</configuration>
在hadoop-env.sh文件中添加jdk的路径。
export JAVA_HOME=/opt/module/jdk1.8
在hdfs-site.xml中添加如下内容:
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/opt/module/hadoop_pd/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/opt/module/hadoop_pd/tmp/dfs/data</value> </property> <property> <name>dfs.http.address</name> <value>127.0.0.1:9870</value> </property> </configuration>
格式化namenode,如果出现末尾出现success表示成功。
[bduser@bigdata01 hadoop_pd]$ bin/hdfs namenode -format
启动namenode和datanode。
[bduser@bigdata01 hadoop_pd]$ cd sbin/
[bduser@bigdata01 sbin]$ ./start-dfs.sh
但是会报错,如下图:
原因是因为免密的问题。
执行下列命令生成公钥,然后传给bigdata01自己就行。
ssh-keygen -t rsa
#按三次回车即可获得公钥
ssh-copy-id bigdata01
再重新启动hadoop,即可成功。
浏览器访问192.168.92.101:9870
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。