当前位置:   article > 正文

3. CentOS 7 安装 hadoop_centos7 hadoop单机

centos7 hadoop单机

目录

准备阶段

1.JDK检查

安装阶段

1.JDK安装

2.hadoop 安装

3.hadoop 单机配置(非分布式)

4.hadoop 伪分布式配置

测试阶段

1.浏览器访问


准备阶段

1.JDK检查

判断是否已安装JDK,若无则安装,若有则进入正题。

# java -version

安装阶段

1.JDK安装

详解https://blog.csdn.net/qq_53715214/article/details/123890380?spm=1001.2014.3001.5502

2.hadoop 安装

进入设置好共享的文件夹下进行解压移动 hadoop

  1. # vmhgfs-fuse .host:/ /mnt/hgfs 挂载共享文件夹
  2. # cd /mnt/hgfs/Downloads 进入共享文件夹
  3. # sudo tar -zxf hadoop-3.1.3.tar.gz -C /usr/local 解压已经下载好的hadoop
  4. # cd /usr/local 进入解压后的目录
  5. # mv hadoop-3.1.3 hadoop 移动到指定目录
  6. # ls 查看是否有对应的目录

测试 hadoop 是否可用,hadoop 解压后即可使用,输入以下命令检查是否有版本信息。

  1. # cd /usr/local/hadoop
  2. # ./bin/hadoop version

3.hadoop 单机配置(非分布式)

 运行下面命令看见 hadoop 所有例子

  1. # ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar 例子
  2. # cd /usr/local/hadoop
  3. # mkdir ./input
  4. # cp ./etc/hadoop/*.xml ./input
  5. # ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar grep ./input ./output 'dfs[a-z.]+'
  6. # cat ./output/*

执行成功后如下显示:

4.hadoop 伪分布式配置

# gedit ./etc/hadoop/core-site.xml

修改配置文件

  1. <configuration>
  2. </configuration>
  3. <configuration>
  4. <property>
  5. <name>hadoop.tmp.dir</name>
  6. <value>file:/usr/local/hadoop/tmp</value>
  7. <description>Abase for other temporary directories.</description>
  8. </property>
  9. <property>
  10. <name>fs.defaultFS</name>
  11. <value>hdfs://localhost:9000</value>
  12. </property>
  13. </configuration>
# gedit ./etc/hadoop/hdfs-site.xml
  1. <configuration>
  2. </configuration>
  3. <configuration>
  4. <property>
  5. <name>dfs.replication</name>
  6. <value>1</value>
  7. </property>
  8. <property>
  9. <name>dfs.namenode.name.dir</name>
  10. <value>file:/usr/local/hadoop/tmp/dfs/name</value>
  11. </property>
  12. <property>
  13. <name>dfs.datanode.data.dir</name>
  14. <value>file:/usr/local/hadoop/tmp/dfs/data</value>
  15. </property>
  16. </configuration>

配置 hadoop 环境变量

  1. # echo 'export HADOOP_HOME=/usr/local/hadoop/' >> /etc/profile
  2. # echo 'export PATH=$PATH:$HADOOP_HOME/bin' >> /etc/profile
  3. # echo 'export PATH=$PATH:$HADOOP_HOME/sbin' >> /etc/profile
  4. # source /etc/profile
# gedit /etc/profile
  1. export HDFS_NAMENODE_USER=root
  2. export HDFS_DATANODE_USER=root
  3. export HDFS_SECONDARYNAMENODE_USER=root
  4. export YARN_RESOURCEMANAGER_USER=root
  5. export YARN_NODEMANAGER_USER=root
# source /etc/profile

配置完成后执行NameNode的格式化

  1. # cd /usr/local/hadoop
  2. # ./bin/hdfs namenode -format

如果出现

 Error: JAVA_HOME is not set and could not be found.

请到 hadoop 的安装目录修改配置文件"/usr/local/hadoop/etc/hadoop/hadoop/hadoop-env.sh"在里面找到

# export JAVA_HOME=

把它改为(自己的jdk路径),然后再执行NameNode的格式化

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162

能够出现以下结果表示配置完成

root登录,安装SSH,配置SSH 无密码登录,根据提示 y

# sudo yum install openssh-server

  1. # ssh localhost
  2. # exit
  3. # cd ~/.ssh/
  4. # ssh-keygen -t rsa

以上部分根据提示回车即可

  1. # cat ./id_rsa.pub >> ./authorized_keys 加入授权
  2. # ssh localhost 无密登录

再次进入 Hadoop ,并启动

  1. # cd /usr/local/hadoop
  2. # ./sbin/start-dfs.sh

输入 jps 查看进程

# jps

如果出现 jps未找到命令,输入以下进行更新后再输入 jps 查看进程

sudo yum install java-1.8.0-openjdk-devel.x86_64

          

 如上所示:

测试阶段

1.浏览器访问

在centOS 7 的浏览器上访问 localhost:9870 出现以下界面:               伪分布式安装成功


原文

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/611346
推荐阅读
相关标签
  

闽ICP备14008679号