赞
踩
本篇文章将给各位展示如何快速地在linux上搭建spark,本文搭建的环境为Vmware 16 pro 下的CentOS 7 linux、hadoop版本为3.x以上,Jdk1.8,
以下是我总结出的spark几种模式的部署流程,如果是新手,请按流程走完,如果是有过搭建经验的,可根据所需点击相应链接。
1、linux安装Anaconda
2、Spark Local 环境部署
1、Spark StandAlone环境部署
2、StandAlone程序测试
3、ZooKeeper安装部署
4、Spark StandAlone HA 环境部署
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。