赞
踩
(1)、下载
wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.2/hadoop-3.3.2.tar.gz
(2)、解压
tar -zvxf hadoop-3.3.2.tar.gz
(3)、创建用户hadoop
useradd hadoop
(4)、修改hadoop密码
passwd hadoop
(5)、创建目录/soft
mkdir /soft
(6)、移动hadoop-3.3.2到/soft目录
mv hadoop-3.3.2 /soft/
(7)、修改/soft目录属组
chown -R hadoop:hadoop /soft
(8)、使用hadoop用户登录
su – hadoop
(9)、设置java环境变量,修改/soft/hadoop-3.3.2/etc/hadoop/hadoop-env.sh文件
export JAVA_HOME=/usr/java
(10)、运行hadoop示例
cd /soft/ hadoop-3.3.2
mkdir input
cp etc/hadoop/*.xml input
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.2.jar grep input output 'dfs[a-z.]+'
cat output/*
Hadoop可以运行在一个单节点的伪分布模式,每个Hadoop守护进程运行在一个单独的Java进程。
(1)、修改etc/hadoop/core-site.xml文件
vi etc/hadoop/core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> |
(2)、修改etc/hadoop/hdfs-site.xml文件
vi etc/hadoop/hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> |
(3)、配置免密登录
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
使用ssh localhost不用输入密码
(4)、格式化文件系统
bin/hdfs namenode -format
(5)、启动NameNode和DataNode
sbin/start-dfs.sh
(6)、浏览器访问NameNode
如果不是本机,把localhost修改成机器ip
(7)、创建hdfs文件系统目录/user/hadoop
bin/hdfs dfs -mkdir /user
bin/hdfs dfs -mkdir /user/hadoop
通过网页http://localhost:9870/查看
在文本框中输入/,点击Go按钮查看刚才创建的目录
(8)、创建文件目录input,拷贝文件到该目录
bin/hdfs dfs -mkdir input
bin/hdfs dfs -put etc/hadoop/*.xml input
(9)、运行hadoop示例
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.2.jar grep input output 'dfs[a-z.]+'
(10)、查看运行结果
A、拷贝hdfs文件到本地查看
bin/hdfs dfs -get output output
cat output/*
B、或直接在hdfs查看
bin/hdfs dfs -cat output/*
(11)、停止NameNode和DataNode
sbin/stop-dfs.sh
(12)、如果需要运行在YARN上
a、修改etc/hadoop/mapred-site.xml文件
vi etc/hadoop/mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.application.classpath</name> <value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value> </property> </configuration> |
b、修改etc/hadoop/yarn-site.xml文件
vi etc/hadoop/yarn-site.xml
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.env-whitelist</name> <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME</value> </property> </configuration> |
c、启动ResourceManager和NodeManager
sbin/start-yarn.sh
d、通过浏览器查看
e、运行一个MapReduce任务
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.2.jar grep input output 'dfs[a-z.]+'
注意:如果没有启动NameNode和DataNode参照前面启动,运行之前先删除输出目录,删除时,如果出现没有权限修改/etc/hadoop/core-site.xml文件添加如下属性
<property> <name>hadoop.http.staticuser.user</name> <value>hadoop</value> </property> |
然后再重新启动NameNode和DataNode
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。