談到大數據,相信大家對Hadoop 和Apache Spark 這兩個名字並不陌生。但我們往往對它們的理解只是提留在字面上,並沒有對它們進行深入的思考,下面不妨跟我一塊看下它們究竟有什麼異同。
1.解決問題的層面不一樣
首先,Hadoop 和Apache Spark 兩者都是大數據框架,但是各自存在的目的不盡相同。 Hadoop 實質上更多是一個分佈式數據基礎設施: 它將巨大的數據集分派到一個由普通計算機組成的集群中的多個節點進行存儲,意味著您不需要購買和維護昂貴的服務器硬件。
同時,Hadoop 還會索引和跟踪這些數據,讓大數據處理和分析效率達到前所未有的高度。 Spark,則是那麼一個專門用來對那些分佈式存儲的大數據進行處理的工具,它並不會進行分佈式數據的存儲。
2.兩者可合可分
Hadoop 除了提供為大家所共識的HDFS 分佈式數據存儲功能之外,還提供了叫做MapReduce 的數據處理功能。所以這裡我們完全可以拋開Spark,使用Hadoop 自身的MapReduce 來完成數據的處理。
相反,Spark 也不是非要依附在Hadoop 身上才能生存。但如上所述,畢竟它沒有提供文件管理系統,所以,它必須和其他的分佈式文件系統進行集成才能運作。這裡我們可以選擇Hadoop 的HDFS,也可以選擇其他的基於雲的數據系統平台。但Spark 默認來說還是被用在Hadoop 上面的,畢竟,大家都認為它們的結合是最好的。
以下是天地會珠海分舵網上摘錄的對MapReduce 的最簡潔明了的解析:
『我們要數圖書館中的所有書。你數 1 號書架,我數 2 號書架。這就是“Map”。我們人越多,數書就更快。
現在我們一起,把所有人的統計數加在一起。這就是“Reduce”。』
3. Spark 數據處理速度秒殺 MapReduce
Spark 因為其處理數據的方式不一樣,會比MapReduce 快上很多。 MapReduce 是分步對數據進行處理的: ”從集群中讀取數據,進行一次處理,將結果寫到集群,從集群中讀取更新後的數據,進行下一次的處理,將結果寫到集群,等等…“ Booz Allen Hamilton 的數據科學家Kirk Borne 如此解析。
反觀Spark,它會在內存中以接近“實時”的時間完成所有的數據分析:“從集群中讀取數據,完成所有必須的分析處理,將結果寫回集群,完成。 Spark 的批處理速度比MapReduce 快近10 倍,內存中的數據分析速度則快近100 倍。
如果需要處理的數據和結果需求大部分情況下是靜態的,且你也有耐心等待批處理的完成的話,MapReduce 的處理方式也是完全可以接受的。
但如果你需要對流數據進行分析,比如那些來自於工廠的傳感器收集回來的數據,又或者說你的應用是需要多重數據處理的,那麼你也許更應該使用Spark 進行處理。
大部分機器學習算法都是需要多重數據處理的。此外,通常會用到Spark 的應用場景有以下方面:即時的市場活動,在線產品推薦,網絡安全分析,機器日記監控等。
4. 災難恢復
兩者的災難恢復方式迥異,但是都很不錯。因為Hadoop 將每次處理後的數據都寫入到磁盤上,所以其天生就能很有彈性的對系統錯誤進行處理。
Spark 的數據對象存儲在分佈於數據集群中的叫做彈性分佈式數據集(RDD: Resilient Distributed Dataset)中。 “這些數據對象既可以放在內存,也可以放在磁盤,所以RDD 同樣也可以提供完成的災難恢復功能,”Borne 指出。
文章來源: techgogogo.com,本文由天地會珠海分舵編譯自InforWord