当前位置:   article > 正文

调用MapReduce对文件中各个单词出现次数进行统计_mapreduce统计单词出现次数

mapreduce统计单词出现次数

一、安装Linux

在Linux系统各个发行版中,CentOS系统和Ubuntu系统在服务端和桌面端使用占比最高,网络上资料最是齐全,所以我们建议使用CentOS系统或Ubuntu。一般来说,如果要做服务器,我们选择CentOS或者Ubuntu Server;如果做桌面系统,我们选择Ubuntu Desktop。但是在学习Hadoop方面,虽然两个系统没有多大区别,但是我们强烈推荐新手读者使用Ubuntu操作系统。(以Ubuntu Kylin 20.04为例)

二、准备工作

2.1 创建Hadoop账户

① 按 ctrl+alt+t 打开终端窗口(或点击桌面右击),输入如下命令创建新用户 :

$ sudo useradd -m hadoop -s /bin/bash 
  • 1

这条命令创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shell。
② 设立新用户Hadoop密码(密码为hadoop):

$ sudo passwd hadoop
  • 1

③ hadoop用户增加管理员权限:

$ sudo adduser hadoop sudo
  • 1

可为 hadoop 用户增加管理员权限,方便部署,避免一些对新手来说比较棘手的权限问题。

2.2 更新apt

用 hadoop 用户登录后,先更新一下 apt,后续将使用 apt 安装软件,如果没更新可能有一些软件安装不了。按 ctrl+alt+t 打开终端窗口,执行如下命令:
① 切换hadoop用户

$ sudo su hadoop
  • 1

② 更新vim

$ sudo apt-get update 
  • 1

2.3 安装vim

后续需要更改一些配置文件,这里采用的是 vim(vi增强版,基本用法相同),相对于vi更有辨识度,编辑起来更好用。

$ sudo apt-get install vim
  • 1

安装软件时若需要确认,在提示处输入 y 即可(我这个版本是装系统时自动安装好的)。
在这里插入图片描述

2.4 配置SSH

集群、单节点模式都需要用到 SSH 登陆(类似于远程登陆,你可以登录某台 Linux 主机,并且在上面运行命令),Ubuntu 默认已安装了 SSH client,此外还需要安装 SSH server。

$ sudo apt-get install openssh-server
  • 1

安装后,可以使用如下命令登陆本机:

$ ssh localhost
  • 1

此时会有如下提示(SSH首次登陆提示),输入 yes 。然后按提示输入密码 hadoop,这样就登陆到本机了。

但这样登陆是需要每次输入密码的,我们需要配置成SSH无密码登陆比较方便。
首先退出刚才的 ssh,就回到了我们原先的终端窗口,然后利用 ssh-keygen 生成密钥,并将密钥加入到授权中:

$ exit                                   # 退出刚才的 ssh localhost
$ cd ~/.ssh/                             # 若没有该目录,请先执行一次ssh localhost
$ ssh-keygen -t rsa                      # 会有提示,都按回车就可以
$ cat ./id_rsa.pub >> ./authorized_keys  # 加入授权
  • 1
  • 2
  • 3
  • 4

此时再用 ssh localhost 命令,无需输入密码就可以直接登陆了,如下图所示。
在这里插入图片描述

三、安装Java

3.1 安装JDK

Hadoop3.1.3需要JDK版本在1.8及以上。需要按照下面步骤来自己手动安装JDK1.8。接下来在Linux命令行界面中,执行如下Shell命令(注意:当前登录用户名是hadoop)

$ cd /usr/lib
$ sudo mkdir jvm     #创建/usr/lib/jvm目录用来存放JDK文件
$ cd ~               #进入hadoop用户的主目录
$ cd  ./下载    
  • 1
  • 2
  • 3
  • 4
$ sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -C /usr/lib/jvm   #把JDK文件解压到/usr/lib/jvm目录下
  • 1

3.2 设置JAVA环境变量

$ cd ~
$ vim ~/.bashrc 或 gedit ~/.bashrc  
  • 1
  • 2

通过vim编辑器或文本编辑器。打开环境变量配置.bashrc文件,在文件开头添加如下几行内容(vim编辑器中,按“i”进去编辑模式,按“:wq”保存并返回终端;gedit 是文本编辑器,类似于 Windows 中的记事本,会比较方便。保存后记得关掉整个 gedit 程序,否则会占用终端):

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
  • 1
  • 2
  • 3
  • 4

然后,继续执行如下命令让.bashrc文件的配置立即生效:

source ~/.bashrc
  • 1

利用Java -version命令验证(若返回如下信息,则代表JAVA环境配置成功):
在这里插入图片描述

四、安装Hadoop

4.1 配置环境变量和进行伪分布式操作

Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。
使用vim ~/.bashrc 或 gedit ~/.bashrc 设置环境变量,保存后用source ~/.bashrc命令生效。该环境变量如下:

export HADOOP_HOME=/usr/local/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

利用cd命令转到配置三个文件下:

$ cd /usr/local/hadoop/etc/hadoop/
  • 1

开始配置core-site.xml 和 hdfs-site.xml。首先对core-site.xml进行修改
vim core-site.xml
在配置文件中找到下面这个标签对

<configuration>
</configuration>
  • 1
  • 2

修改为下面配置:

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/337630
推荐阅读
相关标签
  

闽ICP备14008679号