赞
踩
操作系统:ubuntu-23.04-desktop-amd64.iso
虚拟机:VMware Workstation Pro
不要选择典型安装,典型安装之后登陆不上去,用户名和密码是正确的也登陆不上去(可能是这个版本的ubuntu有bug)
默认即可,点击下一步
选择稍后安装操作系统
Linux,ubuntu64位
位置最好在D盘
内核数量改为2
默认即可,下一步
使用网络地址转换
LSI Logic(L)
SCIS(s)
创建新虚拟磁盘
最好设置大一点,要不然后续修改起来困难
使用你下载的ISO
设置->关于->软件->其他->选择服务器(推荐中科大的)
ping baidu.com
- sudo su
- apt upgrade
- apt install net-tools
ifconfig
点击有线设置
ip地址设置参照3自行选择(在起始地址和结束地址的范围内)
子网掩码设置为默认值:255.255.255.0
网关把ip最后一段改为2DNS
使用谷歌提供的免费dns
:8.8.8.8
然后重启网卡。激活配置 测试ip是否配置完成:
ip a
测试DNS
是否配置成功,测试能否访问百度
- ping 8.8.8.8
- ping baidu.com
- hostnamectl set-hostname hadoop01
- reboot
hadoop2同上
3. 网络配置文件修改 把ip改为主机ip加一
4. 重新启动网络配置 5. 按此步骤克隆hadoop3
- apt install vim
- vim /etc/hosts
2. 开启ssh服务
- sudo apt-get update
- sudo apt-get install openssh-server
当安装完后
sudo service ssh start
检查是否运行
sudo service ssh status
运行成功会显示
开机自启动
sudo systemctl enable ssh
ssh-keygen -t rsa
4. 将本机公钥文件复制到其他虚拟机上
- ssh-copy-id hadoop01
- ssh-copy-id hadoop02
- ssh-copy-id hadoop03
一定要切回初始用户,因为Ubuntu的root用户密码是随机的确定不了
5. 查看是否配置成功
- cd /
- sudo mkdir -p /export/{data,servers,software}
输入ip和账户密码登录
- sudo chmod 777 /export
- sudo chmod 777 /export/software
- sudo su
- cd /export/software
- tar -zxvf jdk-8u391-linux-x64.tar.gz -C /export/servers/
6.2 重命名jdk目录
- cd /export/servers
- mv jdk1.8.0_391 jdk
6.3 配置环境变量
- vim /etc/profile
-
- #在配置文件末尾追加
- export JAVA_HOME=/export/servers/jdk
- export PATH=$PATH:$JAVA_HOME/bin
- export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
6.4 使配置文件生效
source /etc/profile
6.5 查看是否生效
java -version
如下图则生效
7. Hadoop安装(所有虚拟机都要操作)
7.1 解压hadoop
- cd /export/software
- tar -zxvf hadoop-3.3.6.tar.gz -C /export/servers/
7.2 打开配置文件
vim /etc/profile
7.3 配置hadoop环境变量
- #在文件末尾追加
- export HADOOP_HOME=/export/servers/hadoop-3.3.6
- export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
7.4 使配置文件生效
source /etc/profile
7.5 查看是否配置成功
hadoop version
cd /export/servers/hadoop-3.3.6/etc/hadoop/
8.2 修改hadoop-env.sh文件
- vim hadoop-env.sh
- # 添加
- export JAVA_HOME=/export/servers/jdk
8.3 修改core-site.xml
- vim core-site.xml
-
- <configuration>
- <property>
- <name>fs.defaultFS</name>
- <value>hdfs://hadoop01:9000</value>
- </property>
- <property>
- <name>hadoop.tmp.dir</name>
- <value>/export/servers/hadoop-3.3.6/tmp</value>
- </property>
- </configuration>
8.4 修改hdfs-site.xml
- vim hdfs-site.xml
-
- <configuration>
- <property>
- <name>dfs.replication</name>
- <value>3</value>
- </property>
- <property>
- <name>dfs.namenode.secondary.http-address</name>
- <value>hadoop02:50090</value>
- </property>
- </configuration>
8.5 修改mapred-site.xml
- vim mapred-site.xml
-
- <configuration>
- <property>
- <name>mapreduce.framework.name</name>
- <value>yarn</value>
- </property>
- </configuration>
8.6 修改yarn-site.xml
- vim yarn-site.xml
-
- <configuration>
- <property>
- <name>yarn.resourcemanager.hostname</name>
- <value>hadoop01</value>
- </property>
- <property>
- <name>yarn.nodemanager.aux-services</name>
- <value>mapreduce_shuffle</value>
- </property>
- </configuration>
8.7 修改slaves文件
- #将文件中的localhost删除,添加主节点与子节点的hostname
- vim workers
8.8 将主节点中配置好的文件和hadoop目录copy给子节点
- scp /etc/profile hadoop02:/etc/profile
- scp /etc/profile hadoop03:/etc/profile
- scp -r /export/ hadoop02:/
- scp -r /export/ hadoop03:/
8.9 使子节点中的配置文件生效
- # 返回子节点hadoop02,hadoop03
- source /etc/profile
8.10 在主节点格式化文件系统
hdfs namenode -format
start-dfs.sh
1.2 在主节点启动所有HDFS服务进程
start-yarn.sh
1.3 使用jps命令查看进程
2. 打开window下的C:\Windows\System32\drivers\etc打开hosts文件,在文件末添加三行代码:
- 192.168.135.129 hadoop01
- 192.168.135.130 hadoop02
- 192.168.135.131 hadoop03
sudo ufw disable
ubuntu搭建hadoop集群中间可能会遇到许多小问题,比如ssh-copy-id,最后的访问web端等等,以及中间要无数次切换普通用户和root来达到互联,可能centos搭建hadoop会简单一点。搭建起来确实不太容易对于新手来说不太友好,做这样一个教程来帮助新手在ubuntu上配置hadoop集群。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。