赞
踩
Hadoop是一个开源的Java项目,为运行MapReduce作业提供了大量所需的功能。除了分布时计算之外,Hadoop自带分布式文件系统。
Hadoop可以运行Java之外的其他语言编写的分布式程序。Hadoop流很像Linux系统重的管道(管道使用符号 | ,可以将一个命令的输入作为另一个命令的输出)。如果用mapper.py调用mapper,用reducer.py调用reducer,那么Hadoop流就可以想Linux命令一样执行,例如
cat inputFile.txt | python3 mapper.py | sort | python3 reducer.py > outputFile.txt
这样,类似的Hadoop流就可以在多台机器上分布式执行,用户可以通过Linux命令来测试python语言编写的MapReduce脚本。
下面是一个在海量数据上构建的分布式计算均值和方差的MapReduce作业:
- import sys
- from numpy import mat,mean,power
-
- def read_input(file):
- for line in file:
- yield line.strip()
-
- input = read_input(sys.stdin)
- input=[float(line) for line in input]
- numInputs=len(input)
- input=mat(input)
- sqInput=power(input,2)
- print('%d\t%f\%f' % (numInputs,mean(input),mean(sqInput)))
- print >> sys.stderr,'report: still alive'
Linux下的调用命令:
cat inputFile.txt | python3 map.py
Windows系统下调用命令,在DOS窗口:
python3 map.py < inputFile.txt
mapper接受原始的输入并产生中间值传递给reducer。很多mapper是并行执行的,所以需要将这些mapper的输出合并成一个值。接下来是reducer的代码:将中间的key/value对进行组合:
- import sys
- from numpy import mat,mean,power
-
- def read_input(file):
- for line in file:
- yield line.strip()
-
- input=read_input(sys.stdin)
- mapperOut=[line.split('\t') for line in input]
- cumVal=0.0
- cumSumSq=0.0
- cumN=0.0
- for instance in mapperOut:
- nj=float(instance[0])
- cumN=cumN+nj
- cumVal=cumVal+float(instance[1])
- cumSumSq=cumSumSq+float(instance[2])
- mean=cumVal/cumN
- varSum=(cumSumSq-2*mean*cumVal+cumN*mean*mean)/cumN
- print('%d\t%f\t%f' % (cumN,mean,varSum))
- print >> sys.stderr,'report: still alive'
-
Linux下的调用命令:
%cat inputFile.txt | python3 map.py | python3 reduce.py
Windows系统下调用命令,在DOS窗口:
%python3 map.py < inputFile.txt | python3 reduce.py
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。