首页 hadoop面试题答案

hadoop面试题答案

举报
开通vip

hadoop面试题答案1.下面哪个程序负责HDFS数据存储。a)NameNodeb)Jobtrackerc)Datanoded)secondaryNameNodee)tasktracker答案Cdatanode2.HDfS中的block默认保存几份?a)3份b)2份c)1份d)不确定答案A默认3分3.下列哪个程序通常与NameNode在一个节点启动?a)SecondaryNameNodeb)DataNodec)TaskTrackerd)Jobtracker答案D分析:hadoop的集群是基于master/slave模式,namenode...

hadoop面试题答案
1.下面哪个程序负责HDFS数据存储。a)NameNodeb)Jobtrackerc)Datanoded)secondaryNameNodee)tasktracker答案Cdatanode2.HDfS中的block默认保存几份?a)3份b)2份c)1份d)不确定答案A默认3分3.下列哪个程序通常与NameNode在一个节点启动?a)SecondaryNameNodeb)DataNodec)TaskTrackerd)Jobtracker答案D 分析 定性数据统计分析pdf销售业绩分析模板建筑结构震害分析销售进度分析表京东商城竞争战略分析 :hadoop的集群是基于master/slave模式,namenode和jobtracker属于master,datanode和tasktracker属于slave,master只有一个,而slave有多个SecondaryNameNode内存需求和NameNode在一个数量级上,所以通常secondaryNameNode(运行在单独的物理机器上)和NameNode运行在不同的机器上。JobTracker和TaskTrackerJobTracker对应于NameNodeTaskTracker对应于DataNodeDataNode和NameNode是针对数据存放来而言的JobTracker和TaskTracker是对于MapReduce执行而言的mapreduce中几个主要概念,mapreduce整体上可以分为这么几条执行线索:jobclient,JobTracker与TaskTracker。1、JobClient会在用户端通过JobClient类将应用已经配置参数打包成jar文件存储到hdfs,并把路径提交到Jobtracker,然后由JobTracker创建每一个Task(即MapTask和ReduceTask)并将它们分发到各个TaskTracker服务中去执行2、JobTracker是一个master服务,软件启动之后JobTracker接收Job,负责调度Job的每一个子任务task运行于TaskTracker上,并监控它们,如果发现有失败的task就重新运行它。一般情况应该把JobTracker部署在单独的机器上。3、TaskTracker是运行在多个节点上的slaver服务。TaskTracker主动与JobTracker通信,接收作业,并负责直接执行每一个任务。TaskTracker都需要运行在HDFS的DataNode上4.Hadoop作者a)MartinFowlerb)KentBeckc)Dougcutting答案CDougcutting5.HDFS默认BlockSizea)32MBb)64MBc)128MB答案:B6.下列哪项通常是集群的最主要瓶颈a)CPUb)网络c)磁盘IOd)内存答案:C磁盘首先集群的目的是为了节省成本,用廉价的pc机,取代小型机及大型机。小型机和大型机有什么特点?1.cpu处理能力强2.内存够大所以集群的瓶颈不可能是a和d3.如果是互联网有瓶颈,可以让集群搭建内网。每次写入数据都要通过网络(集群是内网),然后还要写入3份数据,所以IO就会打折扣。同样可以参考下面帖子的实际案例集群瓶颈为什么磁盘io(点此链接360可能会报警,可以完全信任)7.关于SecondaryNameNode哪项是正确的?a)它是NameNode的热备b)它对内存没有要求c)它的目的是帮助NameNode合并编辑日志,减少NameNode启动时间d)SecondaryNameNode应与NameNode部署到一个节点答案C。D答案可以参考第三题多选题:8.下列哪项可以作为集群的管理?a)Puppetb)Pdshc)ClouderaManagerd)Zookeeper答案ABD具体可查看什么是Zookeeper,Zookeeper的作用是什么,在Hadoop及hbase中具体作用是什么9.配置机架感知的下面哪项正确a)如果一个机架出问题,不会影响数据读写b)写入数据的时候会写到不同机架的DataNode中c)MapReduce会根据机架获取离自己比较近的网络数据答案ABC具体可以参考hadoop机架感知--加强集群稳固性,该如何配置hadoop机架感知10.Client端上传文件的时候下列哪项正确a)数据经过NameNode传递给DataNodeb)Client端将文件切分为Block,依次上传c)Client只上传数据到一台DataNode,然后由NameNode负责Block复制工作答案B分析:Client向NameNode发起文件写入的请求。NameNode根据文件大小和文件块配置情况,返回给Client它所管理部分DataNode的信息。Client将文件划分为多个Block,根据DataNode的地址信息,按顺序写入到每一个DataNode块中。具体查看HDFS体系结构简介及优缺点11.下列哪个是Hadoop运行的模式a)单机版b)伪分布式c)分布式答案ABC单机版,伪分布式只是学习用的。12.Cloudera提供哪几种安装CDH的方法a)Clouderamanagerb)Tarballc)Yumd)Rpm答案:ABCD具体可以参考HadoopCDH四种安装方式总结及实例指导判断题:13.Ganglia不仅可以进行监控,也可以进行告警。(正确)分析:此题的目的是考Ganglia的了解。严格意义上来讲是正确。ganglia作为一款最常用的Linux环境中的监控软件,它擅长的的是从节点中按照用户的需求以较低的代价采集数据。但是ganglia在预警以及发生事件后通知用户上并不擅长。最新的ganglia已经有了部分这方面的功能。但是更擅长做警告的还有Nagios。Nagios,就是一款精于预警、通知的软件。通过将Ganglia和Nagios组合起来,把Ganglia采集的数据作为Nagios的数据源,然后利用Nagios来发送预警通知,可以完美的实现一整套监控管理的系统。具体可以查看完美集群监控组合ganglia和nagios14.BlockSize是不可以修改的。(错误)它是可以被修改的Hadoop的基础配置文件是hadoop-default.xml,默认建立一个Job的时候会建立Job的Config,Config首先读入hadoop-default.xml的配置,然后再读入hadoop-site.xml的配置(这个文件初始的时候配置为空),hadoop-site.xml中主要配置需要覆盖的hadoop-default.xml的系统级配置。具体配置可以参考下1.<property>2.<name>dfs.block.size</name>//block的大小,单位字节,后面会提到用处,必须是512的倍数,因为采用crc作文件完整性校验,默认配置512是checksum的最小单元。3.<value>5120000</value>4.<description>Thedefaultblocksizefornewfiles.</description>5.</property>15.Nagios不可以监控Hadoop集群,因为它不提供Hadoop支持。(错误)分析:Nagios是集群监控工具,而且是云计算三大利器之一16.如果NameNode意外终止,SecondaryNameNode会接替它使集群继续工作。(错误)分析:SecondaryNameNode是帮助恢复,而不是替代,如何恢复,可以查看hadoop根据SecondaryNameNode恢复Namenode17.ClouderaCDH是需要付费使用的。(错误)分析:第一套付费产品是ClouderaEnterpris,ClouderaEnterprise在美国加州举行的Hadoop大会(HadoopSummit)上公开,以若干私有管理、监控、运作工具加强Hadoop的功能。收费采取合约订购方式,价格随用的Hadoop叢集大小变动。18.Hadoop是Java开发的,所以MapReduce只支持Java语言编写。(错误)分析:rhadoop是用R语言开发的,MapReduce是一个框架,可以理解是一种思想,可以使用其他语言开发。具体可以查看Hadoop简介(1):什么是Map/Reduce19.Hadoop支持数据的随机读写。(错)分析:lucene是支持随机读写的,而hdfs只支持随机读。但是HBase可以来补救。HBase提供随机读写,来解决Hadoop不能处理的问题。HBase自底层 设计 领导形象设计圆作业设计ao工艺污水处理厂设计附属工程施工组织设计清扫机器人结构设计 开始即聚焦于各种可伸缩性问题:表可以很“高”,有数十亿个数据行;也可以很“宽”,有数百万个列;水平分区并在上千个普通商用机节点上自动复制。表的模式是物理存储的直接反映,使系统有可能提高高效的数据结构的序列化、存储和检索。20.NameNode负责管理metadata,client端每次读写请求,它都会从磁盘中读取或则会写入metadata信息并反馈client端。(个人认为正确,欢迎提出其它意见)分析:1)文件写入Client向NameNode发起文件写入的请求。NameNode根据文件大小和文件块配置情况,返回给Client它所管理部分DataNode的信息。Client将文件划分为多个Block,根据DataNode的地址信息,按顺序写入到每一个DataNode块中。2)文件读取Client向NameNode发起文件读取的请求。NameNode返回文件存储的DataNode的信息。Client读取文件信息。具体查看hadoop中NameNode、DataNode和Client三者之间协作关系21.NameNode本地磁盘保存了Block的位置信息。(个人认为正确,欢迎提出其它意见)分析:DataNode是文件存储的基本单元,它将Block存储在本地文件系统中,保存了Block的Meta-data,同时周期性地将所有存在的Block信息发送给NameNode。具体同样查看hadoop中NameNode、DataNode和Client三者之间协作关系22.DataNode通过长连接与NameNode保持通信。(错误)首先明确一下概念:(1).长连接Client方与Server方先建立通讯连接,连接建立后不断开,然后再进行报文发送和接收。这种方式下由于通讯连接一直存在,此种方式常用于点对点通讯。(2).短连接Client方与Server每进行一次报文收发交易时才进行通讯连接,交易完毕后立即断开连接。此种方式常用于一点对多点通讯,比如多个Client连接一个Server.23.Hadoop自身具有严格的权限管理和安全措施保障集群正常运行。(错误)hadoop只能阻止好人犯错,但是不能阻止坏人干坏事具体可查看hadoop安全性需不断加强24.Slave节点要存储数据,所以它的磁盘越大越好。(错误)分析:一旦Slave节点宕机,数据恢复是一个难题25.hadoopdfsadmin–report命令用于检测HDFS损坏块。(错误)分析:hadoopdfsadmin-report用这个命令可以快速定位出哪些节点down掉了,HDFS的容量以及使用了多少,以及每个节点的硬盘使用情况。当然NameNode有个http页面也可以查询,但是这个命令的输出更适合我们的脚本监控dfs的使用状况1.ConfiguredCapacity:77209395855360(70.22TB)2.PresentCapacity:76079914600683(69.19TB)3.DFSRemaining:60534707015680(55.06TB)4.DFSUsed:15545207585003(14.14TB)5.DFSUsed%:20.43%6.7.-------------------------------------------------8.Datanodesavailable:107(109total,2dead)9.10.Name:172.16.218.232:5001011.Rack:/lg/dminterface012.DecommissionStatus:Normal13.ConfiguredCapacity:1259272216576(1.15TB)14.DFSUsed:185585852416(172.84GB)15.NonDFSUsed:39060951040(36.38GB)16.DFSRemaining:1034625413120(963.57GB)17.DFSUsed%:14.74%18.DFSRemaining%:82.16%19.Lastcontact:WedNov1810:19:44CST200920.21.Name:172.16.216.126:5001022.Rack:/lg/dminterface223.DecommissionStatus:Normal24.ConfiguredCapacity:661261402112(615.85GB)25.DFSUsed:123147280384(114.69GB)26.NonDFSUsed:8803852288(8.2GB)27.DFSRemaining:529310269440(492.96GB)28.DFSUsed%:18.62%29.DFSRemaining%:80.05%30.Lastcontact:WedNov1810:19:46CST200926.Hadoop默认调度器策略为FIFO(正确)具体参考Hadoop集群三种作业调度算法介绍27.集群内每个节点都应该配RAID,这样避免单磁盘损坏,影响整个节点运行。(错误)分析:首先明白什么是RAID,可以参考百科磁盘阵列。这句话错误的地方在于太绝对,具体情况具体分析。题目不是重点,知识才是最重要的。因为hadoop本身就具有冗余能力,所以如果不是很严格不需要都配备RAID。具体参考第二题。28.因为HDFS有多个副本,所以NameNode是不存在单点问题的。(错误)分析:NameNode存在单点问题。了解详细信息,可以参考Hadoop中Namenode单点故障的解决 方案 气瓶 现场处置方案 .pdf气瓶 现场处置方案 .doc见习基地管理方案.doc关于群访事件的化解方案建筑工地扬尘治理专项方案下载 及详细介绍AvatarNode29.每个map槽就是一个线程。(错误)分析:首先我们知道什么是map槽,map槽->mapslotmapslot只是一个逻辑值(org.apache.hadoop.mapred.TaskTracker.TaskLauncher.numFreeSlots),而不是对应着一个线程或者进程具体见:hadoop中槽-slot是线程还是进程讨论30.Mapreduce的inputsplit就是一个block。(错误)InputFormat的数据划分、Split调度、数据读取三个问题的浅析31.NameNode的WebUI端口是50030,它通过jetty启动的Web服务。(错误)分析:根据下面,很显然JOBTRACKER的WebUI端口是5003032.Hadoop环境变量中的HADOOP_HEAPSIZE用于设置所有Hadoop守护线程的内存。它默认是200GB。(错误)hadoop为各个守护进程(namenode,secondarynamenode,jobtracker,datanode,tasktracker)统一分配的内存在hadoop-env.sh中设置,参数为HADOOP_HEAPSIZE,默认为1000M。具体参考hadoop集群内存设置33.DataNode首次加入cluster的时候,如果log中 报告 软件系统测试报告下载sgs报告如何下载关于路面塌陷情况报告535n,sgs报告怎么下载竣工报告下载 不兼容文件版本,那需要NameNode执行“Hadoopnamenode-format”操作格式化磁盘。(错误)分析:首先明白介绍,什么ClusterIDClusterID添加了一个新的标识符ClusterID用于标识集群中所有的节点。当格式化一个Namenode,需要提供这个标识符或者自动生成。这个ID可以被用来格式化加入集群的其他Namenode。详细内容可参考hadoop集群添加namenode的步骤及常识以上答案通过多个资料验证,对于资料不充分的内容,都标有”个人观点“,给出本测 试题 中考模拟试题doc幼小衔接 数学试题 下载云南高中历年会考数学试题下载N4真题下载党史题库下载 抱着谨慎的态度,希望大家多批评指正。出自about云本文链接:http://www.aboutyun.com/thread-6787-1-1.html
本文档为【hadoop面试题答案】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: 免费 已有0 人下载
最新资料
资料动态
专题动态
个人认证用户
绘画的问号
暂无简介~
格式:pdf
大小:249KB
软件:PDF阅读器
页数:0
分类:
上传时间:2019-05-16
浏览量:0