赞
踩
目录
1)MapReduce的局限性
2)各种计算框架各自为战
如果业务场景既有离线处理、又有实时处理,需要搭建使用多套框架,导致学习、维护都比较麻。
因此诞生了像Spark、Flink这样的批流一体框架,一个框架可以处理N多不同的业务场景。
通过Spark的产生背景,应该初步知道了Spark是做大数据的离线和实时处理。再对比与MR的局限性,我们应该猜到Spark编程应该更简洁,计算性能更好,适合交互式/多迭代计算。
看一下官网(http://spark.apache.org/)的介绍:
Apache Spark™ is a unified analytics engine for large-scale data processing.
Spark用于海量数据处理的通用引擎
1) 运算速度快
2) 使用简单
3) 通用性
4) 部署灵活
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。