赞
踩
1)大数据的主要解决问题:海量数据的采集、存储和分析计算问题。
2)重要单位:按顺序->bit、Byte、KB、MB、GB、TB、、PB、EB。
1Byte = 8bit
1K = 1024Byte
1MB = 1024K
1G = 1024M
1T = 1024G
1P = 1024T
3)大数据特点:大量、高速、多样(结构化数据和非结构化数据)、低价密度低
以数据库/文本为主的结构化数据,以网络日志、音频、视频、图片、地理位置信息为主的非结构化数据。
1)Hadoop是一个分布式系统基础架构
2)重要解决海量数据存储和计算的问题
2)可以说Hadoop是一个大的生态圈
hadoop1.x的时代,Hadoop中的mapreduce同时处理计算和资源的调度,耦合性较大,独立性较小。(模块间联系越多,其耦合性越强,同时表明其独立性越差。)
hadoop2.x的时代,增加了yarn,它只负责资源的调度,mapreduce只负责运算,这样各个模块的独立性提高了。
HDFS是一个分布式文件系统
YARM是一个资源调度器
MapReduce负责数据的计算。将计算分为map阶段和reduce阶段。
1)Map阶段并行处理输入的数据
2)Reduce阶段对map端的结果进行汇总
1、有一个mapreduce任务,首先在客户端启动,这个时候需要一个ApplicationMaster,管理这个任务,这里我们简称mrApplicationMaster,此时拿到任务就要去申请资源。
2、向整个集群资源的老大ResourceManger去申请运算资源。
3、申请到资源后,mrApplicationMaster会遍历hdfs的文件,规划启动多少个mapTask和reduceTask。
4、然后mrApplicationMaster向ResourceManger汇报maptask,reduecetask数,申请nodemanager资源,每个nodemanager节点上管理运算资源,然后nodemanger启动容器进行计算。
5、最后将ruducetask的输出结果输出到hdfs上。
1. VMware的安装
官网进行安装,具体教程可以问度娘。
2. CentOS系统的安装
系统的安装首先先配置电脑,再安装系统。
这里可以先百度,后期会出详细教程,这里再不多赘述。
这里讲一下里面的虚拟网络IP修改地址配置和主机名hosts文件的修改,这些命令也很重要!!
虚拟机网络IP修改地址配置(Linux命令)
1)修改网络IP地址为静态IP地址,避免IP地址经常变化,从而方便节点服务器间的互相通信。
[root@hadoop100 ~]#vim /etc/sysconfig/network-scripts/ifcfg-ens33
2)修改以及添加
#修改
BOOTPROTO="static"
/#IP的配置方法[none|static|bootp|dhcp](引导时不使用协议|静态分配IP|BOOTP协议|DHCP协议)
#添加
#IP地址
IPADDR=192.168.10.100
#网关
GATEWAY=192.168.10.2
#域名解析器
DNS1=192.168.10.2
3)修改IP地址后的结果如图所示,执行“:wq”命令,保存退出
4)执行"systemctl restart network"命令,重启网络服务。如果报错,则执行“reboot”命令,重启虚拟机
[root@hadoop100 ~]# systemctl restart network
5)使用ifconfig命令查看当前IP,查看是否与刚才修改的IPADDR相对应
[root@hadoop100 ~]# ifconfig
修改主机名和hosts文件
1)修改主机名称
#改为hadoop100
[root@hadoop100 ~]# vim /etc/hostname
hadoop100
2)配置Linux克隆机主机名称映射hosts文件(方便以后打开这个的时候不用输地址,直接输后面的短名字,其实就是为了方便),打开/etc/hosts
[root@hadoop100 ~]# vim /etc/hosts
#添加如下内容
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
192.168.10.108 hadoop108
3)重启
[root@hadoop100 ~]# reboot
4)修改windows的主机映射文件(hosts文件)
(1)如果操作系统是window7,可以直接修改
(a)进入C:\Windows\System32\drivers\etc路径
(b)打开hosts文件并添加如下内容,然后保存
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
192.168.10.108 hadoop108
(2)如果操作系统是window10,先拷贝出来,修改保存以后,再覆盖即可
(a)进入C:\Windows\System32\drivers\etc路径
(b)拷贝hosts文件到桌面
(c)打开桌面hosts文件并添加如下内容
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
192.168.10.108 hadoop108
(d)将桌面hosts文件覆盖C:\Windows\System32\drivers\etc路径hosts文件
3. 远程终端工具的安装
安装Xshell7,然后配置,这里也不再多赘述。
1.ping一下百度,测试一下能上网吗?
[root@hadoop100 ~]# ping www.baidu.com
2.安装 epel-release
这就相当于一个一个网络仓库,里面有很多包。
[root@hadoop100 ~]# yum install -y epel-release
注意:如果 Linux 安装的是最小系统版,还需要安装如下工具;如果安装的是 Linux
桌面标准版,不需要执行如下操作:
#net-tool:工具包集合,包含 ifconfig 等命令
root@hadoop100 ~]# yum install -y net-tools
#vim:编辑器
[root@hadoop100 ~]# yum install -y vim
3.关闭防火墙,关闭防火墙开机自启
[root@hadoop100 ~]# systemctl stop firewalld
[root@hadoop100 ~]# systemctl disable firewalld.service
基本配置差不多了,剩下的不再赘述,后面另出一个详细说吧~~
[atguigu@hadoop102 hadoop-3.1.3]$ ll
总用量 52
drwxr-xr-x. 2 atguigu atguigu 4096 5 月 22 2017 bin
drwxr-xr-x.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。