当前位置:   article > 正文

Linux环境下Hadoop3.2.0单机部署

Linux环境下Hadoop3.2.0单机部署

前置环境部署:

虚拟机VM16安装-CSDN博客

CentOS安装-CSDN博客

修改VM虚拟机网络-CSDN博客

Hadoop部署前置环境配置-主机名、IP配置-CSDN博客

Linux环境下SSH免密登录设置-CSDN博客

Linux环境下Java JDK环境安装-CSDN博客

1、hadoop软件上传及解压

通过mobaxterm将hadoop发布包上传/usr/local/soft/目录下

  1. cd /usr/local/soft/
  2. tar -zxvf hadoop-3.2.0.tar.gz

2、修改Hadoop的hadoop-env.sh

修改Java配置路径:/usr/local/soft/hadoop-3.2.0/etc/hadoop/hadoop-env.sh

vi /usr/local/soft/hadoop-3.2.0/etc/hadoop/hadoop-env.sh

文件末尾添加如下内容:

  1. export JAVA_HOME=/usr/local/soft/jdk1.8.0_11
  2. export HDFS_NAMENODE_USER=root
  3. export HDFS_DATANODE_USER=root
  4. export HDFS_SECONDARYNAMENODE_USER=root
  5. export YARN_RESOURCEMANAGER_USER=root
  6. export YARN_NODEMANAGER_USER=root
  7. export HADOOP_PID_DIR=/data/hadoop/pids
  8. export HADOOP_LOG_DIR=/data/hadoop/logs

3、添加系统环境变量:

vi /etc/profile

新增如下内容

  1. export HADOOP_HOME=/usr/local/soft/hadoop-3.2.0
  2. export PATH=$PATH:$HADOOP_HOME/bin
  3. export PATH=$PATH:$HADOOP_HOME/sbin
  4. export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native
  5. export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop 

使环境变量生效

source /etc/profile

4、修改core-site.xml配置文件

进入/usr/local/soft/hadoop-3.2.0/etc/hadoop/目录,修改core-site.xml

  1. <configuration>
  2. <property>
  3.   <name>fs.defaultFS</name>
  4.   <value>hdfs://hadoop100:9000</value>
  5. </property>
  6. <property>
  7.   <name>hadoop.tmp.dir</name>
  8.   <value>/data/hadoop/tmp</value>
  9. </property>
  10. <property>
  11.   <name>dfs.webhdfs.enabled</name>
  12.   <value>true</value>
  13.   </property>
  14. </configuration>

5、修改hdfs-site.xml配置文件

  1. <configuration>
  2. <property>
  3. <name>dfs.namenode.secondary.http-address</name>
  4. <value>hadoop100:50090</value>
  5. </property>
  6. <property>
  7. <name>dfs.replication</name>
  8. <value>2</value>
  9. </property>
  10. <property>
  11. <name>dfs.namenode.name.dir</name>
  12. <value>file:/data/hadoop/hdfs/name</value>
  13. </property>
  14. <property>
  15. <name>dfs.datanode.data.dir</name>
  16. <value>file:/data/hadoop/hdfs/data</value>
  17. </property>
  18. <property>
  19. <name>dfs.permissions.enabled</name>
  20. <value>false</value>
  21. </property>
  22. <property>
  23. <name>hadoop.proxyuser.root.hosts</name>
  24. <value>*</value>
  25. </property>
  26. <property>
  27. <name>hadoop.proxyuser.root.groups</name>
  28. <value>*</value>
  29. </property>
  30. </configuration>

dfs.namenode.secondary.http-address是指定secondaryNameNode的http访问地址和端口号,因为在规划中,我们将master1规划为SecondaryNameNode服务器。

6、修改Yarn-site.xml配置文件

  1. <configuration>
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. <property>
  7. <name>yarn.nodemanager.localizer.address</name>
  8. <value>0.0.0.0:8140</value>
  9. </property>
  10. <property>
  11. <name>yarn.resourcemanager.hostname</name>
  12. <value>hadoop100</value>
  13. </property>
  14. <property>
  15. <name>yarn.log-aggregation-enable</name>
  16. <value>true</value>
  17. </property>
  18. <property>
  19. <name>yarn.log-aggregation.retain-seconds</name>
  20. <value>604800</value>
  21. </property>
  22. <property>
  23. <name>yarn.log.server.url</name>
  24. <value>http://hadoop100:19888/jobhistory/logs</value>
  25. </property>
  26. </configuration>

根据规划yarn.resourcemanager.hostname这个指定resourcemanager服务器指向master1。

yarn.log-aggregation-enable是配置是否启用日志聚集功能。

yarn.log-aggregation.retain-seconds是配置聚集的日志在HDFS上最多保存多长时间。

7、修改Maperd-site.xml配置文件

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>yarn.app.mapreduce.am.env</name>
  8. <value>HADOOP_MAPRED_HOME=/usr/local/soft/hadoop-3.2.0</value>
  9. </property>
  10. <property>
  11. <name>mapreduce.map.env</name>
  12. <value>HADOOP_MAPRED_HOME=/usr/local/soft/hadoop-3.2.0</value>
  13. </property>
  14. <property>
  15. <name>mapreduce.reduce.env</name>
  16. <value>HADOOP_MAPRED_HOME=/usr/local/soft/hadoop-3.2.0</value>
  17. </property>
  18. <property>
  19. <name>mapreduce.jobhistory.address</name>
  20. <value>hadoop100:10020</value>
  21. </property>
  22. <property>
  23. <name>mapreduce.jobhistory.webapp.address</name>
  24. <value> hadoop100:19888</value>
  25. </property>
  26. </configuration>

mapreduce.framework.name设置mapreduce任务运行在yarn上。

mapreduce.jobhistory.address是设置mapreduce的历史服务器安装在master1机器上。

mapreduce.jobhistory.webapp.address是设置历史服务器的web页面地址和端口号

8、修改Workers内容

hadoop100

workers文件是指定HDFS上有哪些DataNode节点。

9、格式化Hadoop系统(如果是配置集群,下面几步不要操作)

hdfs namenode  -format

强烈提示:格式化命令仅在配置后执行一次,不允许在启动后再格式化,如果真的这样操作后续会导致集群ID号不一致无法连接到子节点,解决方案:将/data下面的文件删除后再格式化(为了密码出错,切记仅执行一次)

10、启动hdfs和yarn(如果后续配置集群不要操作此步骤)

start-all.sh

停止:

stop-all.sh

11、检测

进程:

jps

12、配置Windows的hosts映射

打开C:\Windows\System32\drivers\etc文件夹,修改hosts,添加如下内容

  1. 192.168.1.100 hadoop100
  2. 192.168.1.101 hadoop101
  3. 192.168.1.102 hadoop102

13、打开浏览器验证

HDFS Web页面

http://hadoop100:9870/

YARN Web页面

http://hadoop100:8088/

14、执行HDFS命令创建test文件夹 

hadoop fs -mkdir /test

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Li_阴宅/article/detail/922445
推荐阅读
相关标签
  

闽ICP备14008679号