当前位置:   article > 正文

基于hadoop与spark的大数据分析实战——第一章 Hadoop部署与实践_大数据项目实践:基于hadoop+spark

大数据项目实践:基于hadoop+spark

第一章、     Hadoop部署与实践

1       准备工作

准备工作包括5个步骤。经过这五个步骤之后使得案例中的3台主机实现互通。以下是准备工作。

1.1        设置静态IP

为了避免影响集群的额稳定性。

E.G.

虚拟机              用户名              密码                   IP

master              hadoop              hadoop              10.0.1.27

slave-One         hadoop              hadoop              10.0.1.39

slave-Two         hadoop              hadoop              10.0.1.40

 

1.2        建立SSH服务

#sudoapt-get install openssh-server

#sshhadoop@10.0.1.39

 

1.3        无密钥登陆

各节点生成密钥:

ssh-keygen

上步会在/home/changlongli目录下生成.ssh

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/648658
推荐阅读
相关标签
  

闽ICP备14008679号