赞
踩
目录
通常情况下,Apache Spark运行速度是要比Apache Hadoop MapReduce的运行速度要快,因为Spark是在继承了MapRudece分布式计算的基础上做了内存计算的优化,从而避免了MapReduce每个阶段都要数据写入磁盘的操作,这样就减少了很多低效的I/O操作。MapReduce与Spark的适用场景分别如下:
容错是指一个系统在部分模块出现故障时还能否继续的对外提供服务,一个高可用的系统应该具备很高的容错性。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。