赞
踩
tar -zxvf jdk-8u221-linux-x64.tar.gz -C /opt/server/
安装vim即可;
yum install -y vim
vim /etc/profile
按“o”进入编辑模式;
- #JDK环境变量
- export JAVA_HOME=/opt/server/jdk1.8.0_221
- export PATH=${JAVA_HOME}/bin:$PATH
编辑完内容后,“esc”-->“:”-->"wq"-->回车,执行保存并退出。
source /etc/profile
vim /etc/hosts
点"i"或者"o"进入编辑模式;
编辑完后,点"Esc"-->":"-->"wq",回车,保存退出。
生成公钥和私钥;(一直点下去即可)
ssh-keygen -t rsa
- cd ~/.ssh
-
- cat id_rsa.pub >> authorized_keys
-
- chmod 600 authorized_keys
- # 本机公钥拷贝到102服务器
- ssh-copy-id hadoop102
-
- # 回车,确认102密码后生效
vim hadoop-env.sh
vim core-site.xml
- <configuration>
- <property>
- <!--指定 namenode 的 hdfs 协议文件系统的通信地址-->
- <name>fs.defaultFS</name>
- <value>hdfs://server:8020</value>
- </property>
- <property>
- <!--指定 hadoop 数据文件存储目录-->
- <name>hadoop.tmp.dir</name>
- <value>/home/hadoop/data</value>
- </property>
- </configuration>
vim hdfs-site.xml
- <configuration>
- <property>
- <!--由于我们这里搭建是单机版本,所以指定 dfs 的副本系数为 1-->
- <name>dfs.replication</name>
- <value>1</value>
- </property>
- </configuration>
vim workers
server
- # 查看防火墙状态
- sudo firewall-cmd --state
- # 关闭防火墙:
- sudo systemctl stop firewalld
- # 禁止开机启动
- sudo systemctl disable firewalld
进入目录“/opt/server/hadoop-3.3.1/sbin”,编辑start-dfs.sh、stop-dfs.sh,在顶部加入以下内容;
- HDFS_DATANODE_USER=root
- HDFS_DATANODE_SECURE_USER=hdfs
- HDFS_NAMENODE_USER=root
- HDFS_SECONDARYNAMENODE_USER=root
start-dfs.sh如下:
stop-dfs.sh如下:
./start-dfs.sh
启动成功;
- #Hadoop环境变量
- export HADOOP_HOME=/opt/server/hadoop-3.3.1
- export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin;
执行“source /etc/profile”刷新,使其生效。
进入/opt/server/hadoop-3.3.1/etc/hadoop/目录;
vim mapred-site.xml
- <configuration>
- <property>
- <name>mapreduce.framework.name</name>
- <value>yarn</value>
- </property>
- <property>
- <name>yarn.app.mapreduce.am.env</name>
- <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
- </property>
- <property>
- <name>mapreduce.map.env</name>
- <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
- </property>
- <property>
- <name>mapreduce.reduce.env</name>
- <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
- </property>
- </configuration>
vim yarn-site.xml
- <configuration>
- <property>
- <!--配置 NodeManager 上运行的附属服务。需要配置成 mapreduce_shuffle 后才可以在Yarn 上运行 MapRedvimuce 程序。-->
- <name>yarn.nodemanager.aux-services</name>
- <value>mapreduce_shuffle</value>
- </property>
- </configuration>
进入“/opt/server/hadoop-3.3.1/sbin/”目录;
- # start-yarn.sh stop-yarn.sh在两个文件顶部添加以下内容
- YARN_RESOURCEMANAGER_USER=root
- HADOOP_SECURE_DN_USER=yarn
- YARN_NODEMANAGER_USER=root
vim start-yarn.sh
vim stop-yarn.sh
进入“/opt/server/hadoop-3.3.1/sbin/”目录;
./start-yarn.sh
创建目录、上传文件失败。
这里“dr.who”表示的是在网页端访问hdfs时的默认用户名,而真实是不存在的,它的权限很小,为了保证数据安全,无法访问其他用户的数据。修改默认登录用户就可解决此处权限问题。
修改“/opt/server/hadoop-3.3.1/etc/hadoop/”目录下的core-site.xml;
添加下面属性;
- <property>
- <!--默认登录用户-->
- <name>hadoop.http.staticuser.user</name>
- <value>root</value>
- </property>
重启hdfs服务即可。
创建目录成功;
原因:客户端web无法解析server域名到指定ip引起的。
解决方法:
在本地win10配置host对虚拟机地址的访问;
192.168.12.100 server
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。