hadoop练习题-带答案.doc

上传人:jian****018 文档编号:7801553 上传时间:2020-03-24 格式:DOC 页数:3 大小:24KB
返回 下载 相关 举报
hadoop练习题-带答案.doc_第1页
第1页 / 共3页
hadoop练习题-带答案.doc_第2页
第2页 / 共3页
hadoop练习题-带答案.doc_第3页
第3页 / 共3页
亲,该文档总共3页,全部预览完了,如果喜欢就下载吧!
资源描述
Hadoop 练习题姓名: 分数: 单项选择题1. 下面哪个程序负责HDFS数据存储。a) NameNodeb) Jobtrackerc) Datanode d) secondaryNameNodee) tasktracker2. HDfS中的block默认保存几份?a) 3份b) 2份c) 1份d) 不确定3. 下列哪个程序通常与NameNode在一个节点启动?a) SecondaryNameNodeb) DataNodec) TaskTrackerd) Jobtracker4. Hadoop作者a) Martin Fowlerb) Kent Beckc) Doug cutting5. HDFS默认Block Sizea) 32MBb) 64MBc) 128MB6. 下列哪项通常是集群的最主要的性能瓶颈a) CPUb) 网络c) 磁盘d) 内存7. 关于SecondaryNameNode哪项是正确的?a) 它是NameNode的热备b) 它对内存没有要求c) 它的目的是帮助NameNode合并编辑日志,减少NameNode启动时间d) SecondaryNameNode应与NameNode部署到一个节点8. 一个gzip文件大小75MB,客户端设置Block大小为64MB,请我其占用几个Block?a) 1b) 2c) 3d) 49. HDFS有一个gzip文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时input split大小为?a) 64MBb) 75MBc) 一个map读取64MB,另外一个map读取11MB10. HDFS有一个LZO(with index)文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时input split大小为?a) 64MBb) 75MBc) 一个map读取64MB,另外一个map读取11MB多选题:11. 下列哪项可以作为集群的管理工具a) Puppetb) Pdshc) Cloudera Managerd) Rsync + ssh + scp12. 配置机架感知的下面哪项正确a) 如果一个机架出问题,不会影响数据读写b) 写入数据的时候会写到不同机架的DataNode中c) MapReduce会根据机架获取离自己比较近的网络数据13. Client端上传文件的时候下列哪项正确a) 数据经过NameNode传递给DataNodeb) Client端将文件以Block为单位,管道方式依次传到DataNodec) Client只上传数据到一台DataNode,然后由NameNode负责Block复制工作d) 当某个DataNode失败,客户端会继续传给其它DataNode 14. 下列哪个是Hadoop运行的模式a) 单机版b) 伪分布式c) 分布式15. Cloudera提供哪几种安装CDH的方法a) Cloudera managerb) Tar ballc) Yumd) Rpm判断题:(全部错)16. Ganglia不仅可以进行监控,也可以进行告警。( )17. Nagios不可以监控Hadoop集群,因为它不提供Hadoop支持。( )18. 如果NameNode意外终止,SecondaryNameNode会接替它使集群继续工作。( )19. Cloudera CDH是需要付费使用的。( )20. Hadoop是Java开发的,所以MapReduce只支持Java语言编写。( )21. Hadoop支持数据的随机写。( )22. NameNode负责管理metadata,client端每次读写请求,它都会从磁盘中读取或则会写入metadata信息并反馈client端。( )23. NameNode本地磁盘保存了Block的位置信息。( )24. Slave节点要存储数据,所以它的磁盘越大越好。( )25. Hadoop默认调度器策略为FIFO,并支持多个Pool提交Job。( )26. 集群内每个节点都应该配RAID,这样避免单磁盘损坏,影响整个节点运行。( )27. 因为HDFS有多个副本,所以NameNode是不存在单点问题的。( )28. 每个map槽就是一个线程。( )29. Mapreduce的input split就是一个block。( )30. Hadoop环境变量中的HADOOP_HEAPSIZE用于设置所有Hadoop守护线程的内存。它默认是200MB。( )31. DataNode首次加入cluster的时候,如果log中报告不兼容文件版本,那需要NameNode执行“hadoop namenode -format”操作格式化磁盘。( )32. Hadoop1.0和2.0都具备完善的HDFS HA策略。()33. GZIP压缩算法比LZO更快。()34. PIG是脚本语言,它与mapreduce无关。()
展开阅读全文
相关资源
相关搜索

当前位置:首页 > 图纸专区 > 大学资料


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!