赞
踩
hadoop集群可用磁盘空间严重不足,204,205,206三台机器已用磁盘达96%。固新插入两块2.2T磁盘,短暂解决磁盘空间不足问题。
两次步骤基本一致,更换盘名与挂载目录名即可
#查看新插入磁盘名称 fdisk -l #以ext3协议格式化(之前使用磁盘为这种形式) mkfs.ext3 /dev/新磁盘名称 #创建要挂载的数据目录 mkdir /data6 #挂载至该目录 mount /dev/磁盘名称 /data6 #查看是否生效 df -h ##配置开机生效 #查看磁盘的uuid ls -l /dev/disk/by-uuid #将uuid写入文件 vim /etc/fstab #追加 UUID=刚才查到的uuid /对应的挂载目录 ext3 defaults 0 2
创建存放dataNode block的目录
mkdir -p /data6/hadoop/hdfs/name
mkdir -p /data6/hadoop/hdfs/edits
mkdir -p /data6/hadoop/hdfs/data
mkdir -p /data6/hadoop/yarn
mkdir -p /data7/hadoop/hdfs/name
mkdir -p /data7/hadoop/hdfs/edits
mkdir -p /data7/hadoop/hdfs/data
mkdir -p /data7/hadoop/yarn
#
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。