当前位置:   article > 正文

Hadoop试题_15.出现在datanode的version文件格式中但不出现在namenode的version文件

15.出现在datanode的version文件格式中但不出现在namenode的version文件格式中的

#Hadoop试题

##第七届全国大学生计算机应用能力与信息素养大赛大数据应用技术赛部分选择

为销售报表展示开发一个MapReduce作业,Mapper输入数据的Key是年份(IntWritable),Value表示商品标识(Text)。下列哪一项决定该Mapper的数据类型?
A. JobConf.setMapInputKeyClass与JobConf.setMapInputValuesClass
B. HADOOP_MAP_DATATYPES环境变量
C. 随作业一起提交的mapper-specification.xml文件
D. InputFormat格式类
标准答案:D
2.
NameNode在启动时自动进入安全模式,在安全模式阶段,说法错误的是
A. 安全模式目的是在系统启动时检查各个DataNode上数据块的有效性
B. 根据策略对数据块进行必要的复制或删除
C. 当数据块最小百分比数满足最小副本数条件时,会自动退出安全模式
D. 文件系统允许有修改
标准答案:D
3.
关于HDFS的文件写入,正确的是
A. 支持多用户对同一个文件的写操作
B. 用户可以在文件的任意位置进行修改
C. 默认将文件复制成三份存放
D. 复制的文件默认都存在同一机架上
标准答案:C
4.
HDFS无法高效存储大量小文件,想让它能处理好小文件,比较可行的改进策略不包括
A. 利用SequenceFile、MapFile、Har等方式归档小文件
B. 多Master设计
C. Block大小适当调小
D. 调大namenode内存或将文件系统元数据存到硬盘里
标准答案:D
试题解析:
5.
HDFS是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是64M,具有高容错、高可靠性、高扩展性、高吞吐率等特征,适合的读写任务是
A. 一次写入,少次读写
B. 多次写入,少次读写
C. 一次写入,多次读写
D. 多次写入,多次读写
标准答案:C
6.
Clinet在HDFS上进行文件写入时,namenode根据文大小和配置情况,返回部分DataNode信息,谁负责将文件划分为多个block,根据DataNode的地址信息按顺序写入到每一个DataNode块
A. Clinte
B. NameNode
C. DataNode
D. Secondary namenode
标准答案:A
试题解析:
7.
出现在datanode的VERSION文件格式中但不出现在nomenode的VERSION文件格式中的是
A. namenodeID
B. storageID
C. storageType
D. layoutVersion
标准答案:B
试题解析:
8.
Client端上传文件到HDFS上的时候下列正确的是()
A. 数据经过NameNode传递给DataNode
B. 数据副本将以管道的方式依次传递
C. Client将数据写到一台DataNode上,并由Client负责完成Block复制工作
D. 当某个DataNode失败,客户端不会继续传给其它的DataNode
标准答案:B
试题解析:
9.
下列关于Hadoop API 说法错误的是()
A. hadoop的文件API不是通用的,只用于HDFS文件系统
B. Configuration 类的默认实例化方法是以HDFS系统的资源配置为基础
C. FileStatus对象存储文件和目录的元数据
D. FSDataInputStream是java.io.DataInputStream的子类
标准答案:A
10.
关于Hadoop单机模式和伪分布式的说法正确的是()
A. 两者都启动守护进程,且守护进程运行在一台机器上
B. 单机模式不使用HDFS,但加载守护进程
C. 两者都不与守护进程交互,避免复杂性
D. 后者比前者增加了HDFS输入输出以及可检查内存使用情况
标准答案:D
11.
配置Hadoop时,JAVA_HOME包含在哪一个配置文件中
A. hadoop-default.xml
B. hadoop-env.sh
C. hadoop-site.xml
D. Configuration.xsl
标准答案:B
12.
关于 SecondaryNameNode 哪项是正确的?
A. 它是 NameNode 的热备
B. 它对内存没有要求
C. 它的目的是帮助 NameNode 合并编辑日志,减少 NameNode 启动时间
D. SecondaryNameNode 应与 NameNode 部署到一个节点
标准答案:C
13.
下列哪项通常是集群的最主要瓶颈
A. CPU
B. 网络
C. 磁盘IO
D. 内存
标准答案:C
14.
如果一个Hadoop集群中HDFS的默认大小是128MB,本地磁盘有个HDFS上的目录包含100个纯文本文件,每个文件200MB。如果使用TextInputFormat作为输入格式类,将该目录作为作业输入,将会启动()个Map。
A. 64
B. 100
C. 200
D. 640
标准答案:C
15.
一个文件大小156MB,在Hadoop2.0中默认情况下请问其占用几个Block()?
A. 1
B. 2
C. 3
D. 4
标准答案:B
156-128=28,128 两个
16.
Hadoop2.0中HDFS 默认 Block Size
A. 32MB
B. 64MB
C. 128MB
D. 256MB
标准答案:C
Hadoop-2.X中HDFS文件块大小默认为128M
17.
HDFS默认的当前工作目录是/user/KaTeX parse error: Expected group after '_' at position 357: …能,建议把最大的表格放在连接的_̲_______端。 A. 最左…USER,fs.default.name的值需要在哪个配置文件内说明
A. mapred-site.xml
B. core-site.xml
C. hdfs-site.xml
D. config-site.xml
标准答案:B
24.
在一个Hadoop集群中有多少个JobTracker daemon?
A. 一个
B. 两个
C. 每个slave节点一个
D. 每个slave节点两个
标准答案:A
25.
在Hadoop MapReduce框架中,任何值类型________。
A. 需要实现Writable接口
B. 需要实现Comparable 接口
C. 需要实现WritableComparable接口
D. 不需要实现任何接口
标准答案:A
26.
在海量数据中,Dynamo的存储是按照什么策略来进行的?
A. 消息代理
B. 传统的存储放置策略
C. 一致性哈希算法
D. 异步复制
标准答案:C
27.
下列选项中,不是CouchDB的复制中的特点是:
A. 使用优先列表
B. 复制过程是逐步进行
C. 允许分区复制
D. 支持智能文档模式
标准答案:A
28.
Hive查询语言中的算术操作符的返回结果是________类型的。
A. Bigint
B. String
C. Number
D. Int
标准答案:C
29.
在配置中,哪个属性定义了jobtracker服务主机?
A. mapred.job.tracker
B. map.red.jobtracker
C. map.red.job.tracker
D. mapred.jobtracker
标准答案:A
30.
HDfS中的block默认保存几份?
A. 3份
B. 2份
C. 1份
D. 不确定
标准答案:A

##网上的部分试题

//Hadoop基础
Doug Cutting所创立的项目的名称都受到其家人的启发,以下项目不是由他创立的项目是
A. Hadoop
B. Nutch
C. Lucene
D. Solr
答案:D

配置Hadoop时,JAVA_HOME包含在哪一个配置文件中
A. hadoop-default.xml
B. hadoop-env.sh
C. hadoop-site.xml
D. configuration.xsl
答案:B
知识点:hadoop配置

Hadoop配置文件中,hadoop-site.xml显示覆盖hadoop-default.xml里的内容。在版本0.20中,hadoop-site.xml被分离成三个XML文件,不包括
A. conf-site.xml
B. mapred-site.xml
C. core-site.xml
D. hdfs-site.xml
答案:A
知识点:hadoop配置

HDFS默认的当前工作目录是/user/$USER,fs.default.name的值需要在哪个配置文件内说明
A. mapred-site.xml
B. core-site.xml
C. hdfs-site.xml
D. 以上均不是
答案:B
知识点:hadoop配置

关于Hadoop单机模式和伪分布式模式的说法,正确的是
A. 两者都起守护进程,且守护进程运行在一台机器上
B. 单机模式不使用HDFS,但加载守护进程
C. 两者都不与守护进程交互,避免复杂性
D. 后者比前者增加了HDFS输入输出以及可检查内存使用情况
答案:D
知识点:hadoop配置

下列关于Hadoop API的说法错误的是
A. Hadoop的文件API不是通用的,只用于HDFS文件系统
B. Configuration类的默认实例化方法是以HDFS系统的资源配置为基础的
C. FileStatus对象存储文件和目录的元数据
D. FSDataInputStream是java.io.DataInputStream的子类
答案:A

//HDFS
HDFS的NameNode负责管理文件系统的命名空间,将所有的文件和文件夹的元数据保存在一个文件系统树中,这些信息也会在硬盘上保存成以下文件:
A.日志
B.命名空间镜像
C.两者都是
答案:C
知识点:

HDFS的namenode保存了一个文件包括哪些数据块,分布在哪些数据节点上,这些信息也存储在硬盘上。
A.正确
B.错误
答案:B
知识点:在系统启动的时候从数据节点收集而成的

Secondary namenode就是namenode出现问题时的备用节点
A.正确
B.错误
答案:B
知识点:它和元数据节点负责不同的事情。其主要功能就是周期性将元数据节点的命名空间镜像文件和修改日志合并,以防日志文件过大。合并过后的命名空间镜像文件也在Secondary namenode保存了一份,以防namenode失败的时候,可以恢复。

出现在datanode的VERSION文件格式中但不出现在namenode的VERSION文件格式中的是
A. namespaceID
B. storageID
C. storageType
D. layoutVersion
答案:B
知识点:其他三项是公有的。layoutVersion是一个负整数,保存了HDFS的持续化在硬盘上的数据结构的格式版本号;namespaceID是文件系统的唯一标识符,是在文件系统初次格式化时生成的;storageType表示此文件夹中保存的是数据节点的类型

Client在HDFS上进行文件写入时,namenode根据文件大小和配置情况,返回部分datanode信息,谁负责将文件划分为多个Block,根据DataNode的地址信息,按顺序写入到每一个DataNode块
A. Client
B. Namenode
C. Datanode
D. Secondary namenode
答案:A
知识点:HDFS文件写入

HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是
A.一次写入,少次读写
B.多次写入,少次读写
C.一次写入,多次读写
D.多次写入,多次读写
答案:C
知识点:HDFS特性

HDFS无法高效存储大量小文件,想让它能处理好小文件,比较可行的改进策略不包括
A. 利用SequenceFile、MapFile、Har等方式归档小文件
B. 多Master设计
C. Block大小适当调小
D. 调大namenode内存或将文件系统元数据存到硬盘里
答案:D
知识点:HDFS特性

关于HDFS的文件写入,正确的是
A. 支持多用户对同一文件的写操作
B. 用户可以在文件任意位置进行修改
C. 默认将文件块复制成三份存放
D. 复制的文件块默认都存在同一机架上
答案:C
知识点:在HDFS的一个文件中只有一个写入者,而且写操作只能在文件末尾完成,即只能执行追加操作。默认三份文件块两块在同一机架上,另一份存放在其他机架上。

Hadoop fs中的-get和-put命令操作对象是
A. 文件
B. 目录
C. 两者都是
答案:C
知识点:HDFS命令

Namenode在启动时自动进入安全模式,在安全模式阶段,说法错误的是
A. 安全模式目的是在系统启动时检查各个DataNode上数据块的有效性
B. 根据策略对数据块进行必要的复制或删除
C. 当数据块最小百分比数满足的最小副本数条件时,会自动退出安全模式
D. 文件系统允许有修改
答案:D
知识点:HDFS安全模式

//MapReduce
MapReduce框架提供了一种序列化键/值对的方法,支持这种序列化的类能够在Map和Reduce过程中充当键或值,以下说法错误的是
A. 实现Writable接口的类是值
B. 实现WritableComparable接口的类可以是值或键
C. Hadoop的基本类型Text并不实现WritableComparable接口
D. 键和值的数据类型可以超出Hadoop自身支持的基本类型
答案:C

以下四个Hadoop预定义的Mapper实现类的描述错误的是
A. IdentityMapper实现Mapper,将输入直接映射到输出
B. InverseMapper实现Mapper,反转键/值对
C. RegexMapper实现Mapper,为每个常规表达式的匹配项生成一个(match, 1)对
D. TokenCountMapper实现Mapper,当输入的值为分词时,生成(taken, 1)对
答案:B
知识点:InverseMapper实现Mapper

下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是
A. FSDataInputStream扩展了DataInputStream以支持随机读
B. 为实现细粒度并行,输入分片(Input Split)应该越小越好
C. 一台机器可能被指派从输入文件的任意位置开始处理一个分片
D. 输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割
答案:B
知识点:每个分片不能太小,否则启动与停止各个分片处理所需的开销将占很大一部分执行时间

针对每行数据内容为”Timestamp Url”的数据文件,在用JobConf对象conf设置conf.setInputFormat(WhichInputFormat.class)来读取这个文件时,WhichInputFormat应该为以下的
A. TextInputFormat
B. KeyValueTextInputFormat
C. SequenceFileInputFormat
D. NLineInputFormat
答案:B
知识点:四项主要的InputFormat类。KeyValueTextInputFormat以每行第一个分隔符为界,分隔符前为key,之后为value,默认制表符为\t

有关MapReduce的输入输出,说法错误的是
A. 链接多个MapReduce作业时,序列文件是首选格式
B. FileInputFormat中实现的getSplits()可以把输入数据划分为分片,分片数目和大小任意定义
C. 想完全禁止输出,可以使用NullOutputFormat
D. 每个reduce需将它的输出写入自己的文件中,输出无需分片
答案:B
知识点:分片数目在numSplits中限定,分片大小必须大于mapred.min.size个字节,但小于文件系统的块

Hadoop Streaming支持脚本语言编写简单MapReduce程序,以下是一个例子:
bin/hadoop jar contrib/streaming/hadoop-0.20-streaming.jar
—input input/filename
—output output
—mapper ‘dosth.py 5’
—file dosth.py
—D mapred.reduce.tasks=1
以下说法不正确的是
A. Hadoop Streaming使用Unix中的流与程序交互
B. Hadoop Streaming允许我们使用任何可执行脚本语言处理数据流
C. 采用脚本语言时必须遵从UNIX的标准输入STDIN,并输出到STDOUT
D. Reduce没有设定,上述命令运行会出现问题
答案:D
知识点:没有设定特殊的reducer,默认使用IdentityReducer

在高阶数据处理中,往往无法把整个流程写在单个MapReduce作业中,下列关于链接MapReduce作业的说法,不正确的是
A.Job和JobControl类可以管理非线性作业之间的依赖
B.ChainMapper和ChainReducer类可以用来简化数据预处理和后处理的构成
C.使用ChainReducer时,每个mapper和reducer对象都有一个本地JobConf对象
D.ChainReducer.addMapper()方法中,一般对键/值对发送设置成值传递,性能好且安全性高
答案:D
知识点:ChainReducer.addMapper()方法中,值传递安全性高,引用传递性能高


  1. 下面哪个程序负责 HDFS 数据存储。答案C datanode

a)NameNode
b)Jobtracker
c)Datanode
d)secondaryNameNode
e)tasktracker

  1. HDfS 中的 block 默认保存几份? 答案A默认3分

a)3 份
b)2 份
c)1 份
d)不确定

  1. 下列哪个程序通常与 NameNode 在一个节点启动?答案D

a)SecondaryNameNode
b)DataNode
c)TaskTracker
d)Jobtracker

此题分析:

hadoop的集群是基于master/slave模式,namenode和jobtracker属于master,datanode和tasktracker属于slave,master只有一个,而slave有多个SecondaryNameNode内存需求和NameNode在一个数量级上,所以通常secondary NameNode(运行在单独的物理机器上)和NameNode运行在不同的机器上。

JobTracker和TaskTracker

JobTracker 对应于 NameNode

TaskTracker 对应于 DataNode

DataNode 和NameNode 是针对数据存放来而言的

JobTracker和TaskTracker是对于MapReduce执行而言的

mapreduce中几个主要概念,mapreduce整体上可以分为这么几条执行线索:obclient,JobTracker与TaskTracker。

1、JobClient会在用户端通过JobClient类将应用已经配置参数打包成jar文件存储到hdfs,并把路径提交到Jobtracker,然后由JobTracker创建每一个Task(即MapTask和ReduceTask)并将它们分发到各个TaskTracker服务中去执行。

2、JobTracker是一个master服务,软件启动之后JobTracker接收Job,负责调度Job的每一个子任务task运行于TaskTracker上,并监控它们,如果发现有失败的task就重新运行它。一般情况应该把JobTracker部署在单独的机器上。

3、TaskTracker是运行在多个节点上的slaver服务。TaskTracker主动与JobTracker通信,接收作业,并负责直接执行每一个任务。TaskTracker都需要运行在HDFS的DataNode上。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  1. Hadoop 作者 答案C Doug cutting

a)Martin Fowler
b)Kent Beck
c)Doug cutting

  1. HDFS 默认 Block Size 答案:B

a)32MB
b)64MB
c)128MB

(因为版本更换较快,这里答案只供参考)

  1. 下列哪项通常是集群的最主要瓶颈:答案:C磁盘

a)CPU
b)网络
c)磁盘IO
d)内存

该题解析:

首先集群的目的是为了节省成本,用廉价的pc机,取代小型机及大型机。小型机和大型机有什么特点?

1.cpu处理能力强

2.内存够大

所以集群的瓶颈不可能是a和d

3.网络是一种稀缺资源,但是并不是瓶颈。

4.由于大数据面临海量数据,读写数据都需要io,然后还要冗余数据,hadoop一般备3份数据,所以IO就会打折扣。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  1. 关于 SecondaryNameNode 哪项是正确的?答案C

a)它是 NameNode 的热备
b)它对内存没有要求
c)它的目的是帮助 NameNode 合并编辑日志,减少 NameNode 启动时间
d)SecondaryNameNode 应与 NameNode 部署到一个节点。

多选题:

  1. 下列哪项可以作为集群的管理?答案:ABD

a)Puppet
b)Pdsh
c)Cloudera Manager
d)Zookeeper

  1. 配置机架感知的下面哪项正确:答案ABC

a)如果一个机架出问题,不会影响数据读写
b)写入数据的时候会写到不同机架的 DataNode 中
c)MapReduce 会根据机架获取离自己比较近的网络数据
10. Client 端上传文件的时候下列哪项正确?答案B

a)数据经过 NameNode 传递给 DataNode

b)Client 端将文件切分为 Block,依次上传

c)Client 只上传数据到一台 DataNode,然后由 NameNode 负责 Block 复制工作

该题分析:
Client向NameNode发起文件写入的请求。

NameNode根据文件大小和文件块配置情况,返回给Client它所管理部分DataNode的信息。

Client将文件划分为多个Block,根据DataNode的地址信息,按顺序写入到每一个DataNode块中。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  1. 下列哪个是 Hadoop 运行的模式:答案ABC

a)单机版
b)伪分布式
c)分布式

  1. Cloudera 提供哪几种安装 CDH 的方法?答案:ABCD

a)Cloudera manager
b)Tarball
c)Yum
d)Rpm

判断题:

  1. Ganglia 不仅可以进行监控,也可以进行告警。( 正确)

分析:此题的目的是考Ganglia的了解。严格意义上来讲是正确。ganglia作为一款最常用的Linux环境中的监控软件,它擅长的的是从节点中按照用户的需求以较低的代价采集数据。但是ganglia在预警以及发生事件后通知用户上并不擅长。最新的ganglia已经有了部分这方面的功能。但是更擅长做警告的还有Nagios。Nagios,就是一款精于预警、通知的软件。通过将Ganglia和Nagios组合起来,把Ganglia采集的数据作为Nagios的数据源,然后利用Nagios来发送预警通知,可以完美的实现一整套监控管理的系统。

  1. Block Size 是不可以修改的。(错误 )

分析:它是可以被修改的Hadoop的基础配置文件是hadoop-default.xml,默认建立一个Job的时候会建立Job的Config,Config首先读入hadoop-default.xml的配置,然后再读入hadoop-site.xml的配置(这个文件初始的时候配置为空),hadoop-site.xml中主要配置需要覆盖的hadoop-default.xml的系统级配置。

  1. Nagios 不可以监控 Hadoop 集群,因为它不提供 Hadoop 支持。(错误 )

分析:Nagios是集群监控工具,而且是云计算三大利器之一

  1. 如果 NameNode 意外终止,SecondaryNameNode 会接替它使集群继续工作。(错误 )

分析:SecondaryNameNode是帮助恢复,而不是替代,如何恢复,可以查看

  1. Cloudera CDH 是需要付费使用的。(错误 )

分析:第一套付费产品是Cloudera Enterpris,Cloudera Enterprise在美国加州举行的 Hadoop 大会 (Hadoop Summit) 上公开,以若干私有管理、监控、运作工具加强 Hadoop 的功能。收费采取合约订购方式,价格随用的 Hadoop 叢集大小变动。

  1. Hadoop 是 Java 开发的,所以 MapReduce 只支持 Java 语言编写。(错误 )

分析:rhadoop是用R语言开发的,MapReduce是一个框架,可以理解是一种思想,可以使用其他语言开发。

  1. Hadoop 支持数据的随机读写。(错 )
    1. NameNode 负责管理 metadata,client 端每次读写请求,它都会从磁盘中读取或则会写入 metadata 信息并反馈 client 端。(错误)
    
    NameNode 不需要从磁盘读取 metadata,所有数据都在内存中,硬盘上的只是序列化的结果,只有每次 namenode 启动的时候才会读取。
    1)文件写入
    Client向NameNode发起文件写入的请求。
    NameNode根据文件大小和文件块配置情况,返回给Client它所管理部分DataNode的信息。
    Client将文件划分为多个Block,根据DataNode的地址信息,按顺序写入到每一个DataNode块中。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    2)文件读取
    Client向NameNode发起文件读取的请求。

    1. NameNode 本地磁盘保存了 Block 的位置信息。( 个人认为正确,欢迎提出其它意见)

    分析:DataNode是文件存储的基本单元,它将Block存储在本地文件系统中,保存了Block的Meta-data,同时周期性地将所有存在的Block信息发送给NameNode。NameNode返回文件存储的DataNode的信息。
    Client读取文件信息。

    1. DataNode 通过长连接与 NameNode 保持通信。( )

    这个有分歧:具体正在找这方面的有利资料。下面提供资料可参考。

    
    (1).长连接
    Client方与Server方先建立通讯连接,连接建立后不断开,然后再进行报文发送和接收。这种方式下由于通讯连接一直存在,此种方式常用于点对点通讯。
    
    (2).短连接
    Client方与Server每进行一次报文收发交易时才进行通讯连接,交易完毕后立即断开连接。此种方式常用于一点对多点通讯,比如多个Client连接一个Server.
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    1. Hadoop 自身具有严格的权限管理和安全措施保障集群正常运行。(错误 )

    hadoop只能阻止好人犯错,但是不能阻止坏人干坏事

    1. Slave 节点要存储数据,所以它的磁盘越大越好。( 错误)

    分析:一旦Slave节点宕机,数据恢复是一个难题

    1. hadoop dfsadmin –report 命令用于检测 HDFS 损坏块。(错误 )

    2. Hadoop 默认调度器策略为 FIFO(正确 )

    3. 集群内每个节点都应该配 RAID,这样避免单磁盘损坏,影响整个节点运行。(错误 )

      1. 因为 HDFS 有多个副本,所以 NameNode 是不存在单点问题的。(错误 )

      2. 每个 map 槽就是一个线程。(错误 )

      分析:首先我们知道什么是map 槽,map 槽->map slotmap slot 只是一个逻辑值 ( org.apache.hadoop.mapred.TaskTracker.TaskLauncher.numFreeSlots ),而不是对应着一个线程或者进程

      1. Mapreduce 的 input split 就是一个 block。(错误 )

      2. NameNode 的 Web UI 端口是 50030,它通过 jetty 启动的 Web 服务。(错误 )

      3. Hadoop 环境变量中的 HADOOP_HEAPSIZE 用于设置所有 Hadoop 守护线程的内存。它默认是 200 GB。( 错误)

      hadoop为各个守护进程(namenode,secondarynamenode,jobtracker,datanode,tasktracker)统一分配的内存在hadoop-env.sh中设置,参数为HADOOP_HEAPSIZE,默认为1000M。

      33、33. DataNode 首次加入 cluster 的时候,如果 log 中报告不兼容文件版本,那需要 NameNode执行“Hadoop namenode -format”操作格式化磁盘。(错误 )

      分析:

      首先明白介绍,什么ClusterID

      ClusterID

      添加了一个新的标识符ClusterID用于标识集群中所有的节点。当格式化一个Namenode,需要提供这个标识符或者自动生成。这个ID可以被用来格式化加入集群的其他Namenode。

      二次整理

      有的同学问题的重点不是上面分析内容:内容如下:

      这个报错是说明 DataNode 所装的Hadoop版本和其它节点不一致,应该检查DataNode的Hadoop版本

      ##清华大学出版社 2016 年出版的《大数据技术基础》部分试题知识点

      Hadoop 采用 MapReduce 来整合分布式文件系统上的数据,以保证分析和处理数据的高效。

      Datanode 程序负责HDFS数据存储 。

      HDFS默认Block Size的是 128MB

      磁盘通常是集群的最主要的性能瓶颈

      Spark不包含在Hadoop生态系统中。

      在默认情况下,HDFS块的大小为128MB

      在大多数情况下,副本系数为3,HDFS的存放策略将第二个副本放在同一机架的不同节点

      假设设置的副本数是3,现在系统中有5个副本,那么系统会删除2个副本

      在配置文件hdfs-default.xml中定义副本率为1时,HDFS 将永远处于安全模式。

      汇报Block信息不属于NameNode的功能。

      在HDFS文件系统读取文件的过程中,客户端通过对输入流调用read()方法开始读取数据,写入文件的过程中,客
      户端通过对输出流调用write()方法开始写入数据

      HDFS全部文件的全部元数据是存储在NameNode节点的内存,为了解决这个瓶颈,HDFS产生了Federation机制

      HDFS命令行接口中查看文件列表中第五列是文件大小

      HDFS中,文件的访问权限不包含读写权限

      每个文件和目录都有所属用户、所属组别及模式,这个模式的组成不包含所属组的权限

      FileStatus类封装了文件系统中文件和目录的元数据,其中不包括文件大小

      Hadoop目前支持很多压缩格式,,bzip2 支持切分

      考虑到性能最好使用本地库来压缩和解压,但并非所有格式都有本地实现和Java实现, Gzip、 DEFLATE 压缩格
      式既有本地实现又有Java实现,

      易操作 不是RPC对于序列化的要求

      对于WritableComparable的接口声明, 是正确的

      publicinterfaceWritableComparableextendsWritable,Comparable{}

      InitWritable 不是Writable集合类

      MapReduce程序由Map和Reduce两个阶段组成,用户只需要编写 Map 和 Reduce 两个函数即可完成分布式程序的设计。而在这两个函数中是以 key/value 作为输入输出的

      在YARN/MRv2计算框架中提出了全新的资源管理框架 YARN ,它将JobTracker中的资源管理和作业控制功能分开,分别由 ResourceManager 和 ApplicationMaster 两个不同进程实现。

      Mapper类和Reducer类具有 setup、map、cleanup、run 四个方法,在我们编写的过程中只需要编写 map 方法即可。

      查看新版MapReduce的Web页面默认的端口号是18088

      在map和reduce函数的输入和输出类型中,必须一致的是map的输出和reduce的输入

      如何减少输入分片的数量 增大分片大小来减少分片的数量

      默认的InputFormat是 TextInputFormat 。每条记录是一行输入,键是 LongWritable 类型,存储该行在整个文件中的字节偏移量。值是这行的内容,不包括任何行终止符,它被打包成一个 Text 对象

      分片大小的计算公式为 max(minimumSize,min( maximumSize,blockSize)) 。默认情况下,minimumSize、blockSize、maximumSize的大小关系为minimumSize< blockSize<maximumSize

      YARN上的MapReduce实体不包括jobtracker

      每个map任务都有一个环形内存缓冲区用于存储任务的输出。默认情况下,缓冲区的大小为 100MB
      下列 内核调度器 不属于MapReduce的调度器

      对于YARN ResourceManager的理解,是不正确的 YARN提供了多种直接可用的调度器,例如内核调度器
      NodeManager的职责不包括 与调度器协商资源

      声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/276785
      推荐阅读
      相关标签
        

      闽ICP备14008679号