赞
踩
目录
判断是否已安装JDK,若无则安装,若有则进入正题。
# java -version
详解https://blog.csdn.net/qq_53715214/article/details/123890380?spm=1001.2014.3001.5502
进入设置好共享的文件夹下进行解压移动 hadoop
- # vmhgfs-fuse .host:/ /mnt/hgfs 挂载共享文件夹
-
- # cd /mnt/hgfs/Downloads 进入共享文件夹
-
- # sudo tar -zxf hadoop-3.1.3.tar.gz -C /usr/local 解压已经下载好的hadoop
-
- # cd /usr/local 进入解压后的目录
-
- # mv hadoop-3.1.3 hadoop 移动到指定目录
-
- # ls 查看是否有对应的目录
测试 hadoop 是否可用,hadoop 解压后即可使用,输入以下命令检查是否有版本信息。
- # cd /usr/local/hadoop
-
- # ./bin/hadoop version
运行下面命令看见 hadoop 所有例子
- # ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar 例子
-
- # cd /usr/local/hadoop
-
- # mkdir ./input
-
- # cp ./etc/hadoop/*.xml ./input
-
- # ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar grep ./input ./output 'dfs[a-z.]+'
-
- # cat ./output/*
执行成功后如下显示:
# gedit ./etc/hadoop/core-site.xml
修改配置文件
- <configuration>
- </configuration>
-
- <configuration>
- <property>
- <name>hadoop.tmp.dir</name>
- <value>file:/usr/local/hadoop/tmp</value>
- <description>Abase for other temporary directories.</description>
- </property>
- <property>
- <name>fs.defaultFS</name>
- <value>hdfs://localhost:9000</value>
- </property>
- </configuration>
# gedit ./etc/hadoop/hdfs-site.xml
- <configuration>
- </configuration>
-
- <configuration>
- <property>
- <name>dfs.replication</name>
- <value>1</value>
- </property>
- <property>
- <name>dfs.namenode.name.dir</name>
- <value>file:/usr/local/hadoop/tmp/dfs/name</value>
- </property>
- <property>
- <name>dfs.datanode.data.dir</name>
- <value>file:/usr/local/hadoop/tmp/dfs/data</value>
- </property>
- </configuration>
配置 hadoop 环境变量
- # echo 'export HADOOP_HOME=/usr/local/hadoop/' >> /etc/profile
- # echo 'export PATH=$PATH:$HADOOP_HOME/bin' >> /etc/profile
- # echo 'export PATH=$PATH:$HADOOP_HOME/sbin' >> /etc/profile
- # source /etc/profile
# gedit /etc/profile
- export HDFS_NAMENODE_USER=root
- export HDFS_DATANODE_USER=root
- export HDFS_SECONDARYNAMENODE_USER=root
- export YARN_RESOURCEMANAGER_USER=root
- export YARN_NODEMANAGER_USER=root
# source /etc/profile
配置完成后执行NameNode的格式化
- # cd /usr/local/hadoop
-
- # ./bin/hdfs namenode -format
如果出现
Error: JAVA_HOME is not set and could not be found.
请到 hadoop 的安装目录修改配置文件"/usr/local/hadoop/etc/hadoop/hadoop/hadoop-env.sh"在里面找到
# export JAVA_HOME=
把它改为(自己的jdk路径),然后再执行NameNode的格式化
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
能够出现以下结果表示配置完成
root登录,安装SSH,配置SSH 无密码登录,根据提示 y
# sudo yum install openssh-server
- # ssh localhost
-
- # exit
-
- # cd ~/.ssh/
-
- # ssh-keygen -t rsa
以上部分根据提示回车即可
- # cat ./id_rsa.pub >> ./authorized_keys 加入授权
-
- # ssh localhost 无密登录
再次进入 Hadoop ,并启动
- # cd /usr/local/hadoop
-
- # ./sbin/start-dfs.sh
输入 jps 查看进程
# jps
如果出现 jps未找到命令,输入以下进行更新后再输入 jps 查看进程
sudo yum install java-1.8.0-openjdk-devel.x86_64
如上所示:
在centOS 7 的浏览器上访问 localhost:9870 出现以下界面: 伪分布式安装成功
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。