搜索
查看
编辑修改
首页
UNITY
NODEJS
PYTHON
AI
GIT
PHP
GO
CEF3
JAVA
HTML
CSS
搜索
我家自动化
这个屌丝很懒,什么也没留下!
关注作者
热门标签
jquery
HTML
CSS
PHP
ASP
PYTHON
GO
AI
C
C++
C#
PHOTOSHOP
UNITY
iOS
android
vue
xml
爬虫
SEO
LINUX
WINDOWS
JAVA
MFC
CEF3
CAD
NODEJS
GIT
Pyppeteer
article
热门文章
1
HTML基础之表单提交_html 表单提交
2
自然语言处理——基于预训练模型的方法——第4章 自然语言处理中的神经网络基础_自然语言如何跟多层感知器结合
3
18天1000万次迭代,AI生成的照片你能分辨真假吗?_图片ai迭代
4
python:实现给定字符的ASCII值(附完整源码)_python 输出字符串的 ascii
5
【正点原子STM32】Cortex-M系列介绍(ARM、Cortex、DMIPS/MHz和CoreMark/MHz*)_cortex-a72 coremark
6
unity性能优化 模型、贴图、shader优化方法大全_unity compressionmethod
7
【数据结构】单链表基本操作_单链表的基本操作
8
SpringMVC ModelAndView跳转失效_modelandview forward到其他页面的controller时,数据数据丢失
9
【华为OD机试真题】2024年C卷(python)-攀登者2_上山时,消耗相邻高度差两倍的体力,下坡时消耗相邻高度差一倍的体力,平地不消耗体
10
学 Python 都用来干嘛的?
当前位置:
article
> 正文
hadoop 伪分布式搭建_hadoop伪分布式搭建
作者:我家自动化 | 2024-05-31 07:26:20
赞
踩
hadoop伪分布式搭建
下载hadoop1.0.4版本,和jdk1.6版本或更高版本:
1. 安装JDK,安装目录大家可以自定义,下面是我的安装目录:
/usr/jdk1.6.0_22
复制代码
配置环境变量:
[root@hadoop hadoop-1.0.4]# vi /etc/profile
复制代码
将环境变量添加到profile文件底部:
export JAVA_HOME=/usr/jdk1.6.0_22
export PATH=$PATH:$JAVA_HOME/bin
复制代码
激活环境变量:
[root@hadoop hadoop-1.0.4]# source /etc/profile
复制代码
2. 安装hadoop
创建hadoop用户及其hadoop组。
配置IP对应域名在
[root@hadoop hadoop-1.0.4]$ vi /etc/hosts
复制代码
在hosts文件底部中添加如下:
192.168.0.101 hadoop.master
复制代码
接下来下载hadoop安装包,大家可以到apache官网下载1.0.4版本
我这里将hadoop安装到hadoop用户目录下,解压hadoop安装文件,hadoop有三个核心配置文件core-site.xml,hdfs-site.xml,mapred-site.xml,
配置core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop.master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
</configuration>
复制代码
配置hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/hdfs/data</value>
</property>
</configuration>
复制代码
配置 mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop.master:9001</value>
</property>
</configuration>
复制代码
最后配置haoop-env.sh文件
# Set Hadoop-specific environment variables here.
# The only required environment variable is JAVA_HOME. All others are
# optional. When running a distributed configuration it is best to
# set JAVA_HOME in this file, so that it is correctly defined on
# remote nodes.
# The java implementation to use. Required.
export JAVA_HOME=/usr/jdk1.6.0_22
# Extra Java CLASSPATH elements. Optional.
export HADOOP_HOME=/home/hadoop/hadoop-1.0.4
# export HADOOP_CLASSPATH=
# The maximum amount of heap to use, in MB. Default is 1000.
# export HADOOP_HEAPSIZE=2000
# Extra Java runtime options. Empty by default.
# export HADOOP_OPTS=-server
# Command specific options appended to HADOOP_OPTS when specified
export HADOOP_NAMENODE_OPTS="-Dcom.sun.management.jmxremote $HADOOP_NAMENODE_OPTS"
export HADOOP_SECONDARYNAMENODE_OPTS="-Dcom.sun.management.jmxremote $HADOOP_SECONDARYNAMENODE_OPTS"
export HADOOP_DATANODE_OPTS="-Dcom.sun.management.jmxremote $HADOOP_DATANODE_OPTS"
export HADOOP_BALANCER_OPTS="-Dcom.sun.management.jmxremote $HADOOP_BALANCER_OPTS"
export HADOOP_JOBTRACKER_OPTS="-Dcom.sun.management.jmxremote $HADOOP_JOBTRACKER_OPTS"
# export HADOOP_TASKTRACKER_OPTS=
# The following applies to multiple commands (fs, dfs, fsck, distcp etc)
# export HADOOP_CLIENT_OPTS
# Extra ssh options. Empty by default.
# export HADOOP_SSH_OPTS="-o ConnectTimeout=1 -o SendEnv=HADOOP_CONF_DIR"
# Where log files are stored. $HADOOP_HOME/logs by default.
# export HADOOP_LOG_DIR=${HADOOP_HOME}/logs
# File naming remote slave hosts. $HADOOP_HOME/conf/slaves by default.
# export HADOOP_SLAVES=${HADOOP_HOME}/conf/slaves
# host:path where hadoop code should be rsync'd from. Unset by default.
# export HADOOP_MASTER=master:/home/$USER/src/hadoop
# Seconds to sleep between slave commands. Unset by default. This
# can be useful in large clusters, where, e.g., slave rsyncs can
# otherwise arrive faster than the master can service them.
# export HADOOP_SLAVE_SLEEP=0.1
# The directory where pid files are stored. /tmp by default.
# export HADOOP_PID_DIR=/var/hadoop/pids
# A string representing this instance of hadoop. $USER by default.
# export HADOOP_IDENT_STRING=$USER
# The scheduling priority for daemon processes. See 'man nice'.
# export HADOOP_NICENESS=10
export PATH=$PATH:$HADOOP_HOME/bin
复制代码
最后在配置hadoop环境变量在跟jdk在同一个文件,在jdk环境变量下面增加hadoop环境变量:
export HADOOP_HOME=/home/hadoop/hadoop-1.0.4
export PATH=$PATH:$HADOOP_HOME/bin
复制代码
到这里所有环境配置已经完成:
再一次启动时需要namenode format,命令如下:
[hadoop@hadoop bin]$ hadoop namenode -format
复制代码
格式完成后,启动hadoop,使用命令
[hadoop@hadoop bin]$ ./start-all.sh
复制代码
使用jps查看hadoop启动的守护进程:
[hadoop@hadoop bin]$ jps
2734 NameNode
2860 DataNode
2996 SecondaryNameNode
3090 JobTracker
3261 TaskTracker
复制代码
hadoop 伪分布式安装已经完成。
声明:
本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:
https://www.wpsshop.cn/w/我家自动化/article/detail/651092
推荐阅读
article
分布式
hbase
shell
时
list
没有问题,
status
时出现ROR: org.
apache
.h...
- 配置zookeeper地址,两个节点都启用zookeeper -->-- 因为我是两个节点,因此我配置了master...
赞
踩
article
Hbase:报错
ERROR
: ..
hadoop
.
hbase
.
Server
is not runnin...
hbase
数据块损坏,导致
hadoop
进入安全模式,
hbase
不能使用,jar包不能运行的情况,处理办法,
ERROR
: ...
赞
踩
article
hbase
执行list命令报错:ERROR: org.apache.
hadoop
.
hbase
.Ple...
今天,可能误删了什么文件,导致在Hbase的
hbase
shell中执行list命令报如下错误:HDFS前端报错:The...
赞
踩
article
【
ERROR
:
org.
apache
.
hadoop
.
hbase
.PleaseHoldExceptio...
错误原因:按照林子雨的大数据教程搭建好Hbase环境后,我使用创建表和添加一些属性的命令,一开始非常正常,但是当我输入一...
赞
踩
article
Hadoop
启动时出现错误:
Cannot
execute
/home/
hadoop
/libexec/...
Hadoop
启动时出现错误:
Cannot
execute
/home/
hadoop
/libexec/
hadoop
-con...
赞
踩
article
hadoop
安装过
2.7
版本
之后又安装
3.0
版本
出现:ERROR: Cannot
execute
/...
我以前安装过Hadoop
2.7
版本
之后今天需要重新安装
3.0
版本
的时候出现上面的问题,并且删除了
2.7
版本
还是无法正常安...
赞
踩
article
输入
hadoop
version时,解决
Cannot
execute
/
home
/
hadoop
/li...
解决
Cannot
execute
/
home
/
hadoop
/
libexec
/
hadoop
-config.sh.的方法_c...
赞
踩
article
【解决】
ERROR
:
Cannot
execute /
export
/
server
/
hadoop
-3....
我试了网上的各种办法,也试了删除data 和 logs 重新格式化的方法,都不行。然后我注意到上面图片中报错的路径中ha...
赞
踩
article
ERROR
: Cannot
execute
/opt/module/
hadoop
‐3.3.1/lib...
Hadoop格式化
hdfs
失败:我的问题是没有取消Hadoop全局变量。需要在配置Hadoop环境变量下面添加 unse...
赞
踩
article
如何解决
Cannot
execute
/
home
/
hadoop
/
hadoop
/libexec/had...
解决方法:在/etc/profile中找到了这个HADOOP_HOME全局变量,将其删除运行source /etc/pr...
赞
踩
article
运行有关
hadoop
的命令出错
_
cannot
execute
hadoop
-
config
.
sh
...
ERROR: Cannot
execute
/root/software/
hadoop
-3.2.0/bin/libexe...
赞
踩
article
如何解决
Cannot
execute
/
home
/
hadoop
/
hadoop
2.8/
libexec
/...
刚刚在centos用./
hadoop
version遇到了一个错误:
Cannot
execute
/
home
/hadoo...
赞
踩
article
hadoop
问题小结_
org
.
apache
.
hadoop
.
hdfs
.blockmissingexce...
20211229path does not exist
hdfs
://k8s04:9001/usr/root/xxx.c...
赞
踩
article
hadoop
安装过
2.8
版本
之后又安装
3
.1
版本
出现:
ERROR
:
Cannot
execute /o...
我前段时间安装了Hadoop
2.8
版本
之后今天又需重新安装
3
.1
版本
的时候出现上面的问题,并且删除了
2.8
版本
还是无法正...
赞
踩
article
hive
启动报错: ..../
hadoop
:
cannot
execute
binary file_...
hive
可以在集群的另外2台机器上启动,但是在这台上却启动不了环境变量问题?后面发现不是,在其它目录或者
hadoop
di...
赞
踩
article
dolphinscheduler
配置
hadoop
后执行脚本报错ERROR:Cannot execut...
问题描述:根据文档正常配置完
dolphinscheduler
后启动执行
sh
ell命令,而
sh
ell命令为sqoop脚本抽...
赞
踩
article
工良出品
:
包教会,
Hadoop
、
Hive
搭建
部署
简易教程...
目录导读
Hadoop
、
Hive
是什么运行环境hive-env.shhive-site.xmlcore-site.xml...
赞
踩
article
计算机
毕业设计
PySpark
+
Hadoop
+Hive机票航班
数据
分析可视化大屏 机票预测 航班预测系...
计算机
毕业设计
PySpark
+
Hadoop
+Hive机票航班
数据
分析可视化大屏 机票预测 航班预测
系统
机票爬虫 飞机票...
赞
踩
article
Hadoop
-
Apache
Hadoop
大
数据
解决
方案
的整体介绍_
hadoop
方案
...
概述
Hadoop
_
hadoop
方案
hadoop
方案
一 大数...
赞
踩
article
HADOOP
之配置HDFS集群,修改四个文件
workers
,
hadoop
-env.sh,
core
-s...
我的jdk,
hadoop
都在/export/server/目录下。2.配置
hadoop
-env.sh文件。3.配置cor...
赞
踩
相关标签
分布式
hbase
hadoop
list
大数据
apache
hdfs
linux
big data