HDFS 客户端写入文件时,若某个 DataNode 故障,系统如何保证数据一致性()
自动切换到其他 DataNode 并重新复制
终止写入
通过 Zookeeper 重新选举
通过客户端手工重试
MapReduce 的 Shuffle 阶段中,Partitioner 的作用是 ( )
对 Map 输出进行排序
决定 Map 输出的键值对发送到哪个 Reduce 任务
合并相同键的值
压缩中间数据
HDFS 的 SecondaryNameNode 的主要职责是()。
实时备份 NameNode 元数据
定期合并 FsImage 和 EditLog
管理 DataNode 心跳检测
处理客户端读写请求
Flume 的主要用途是 ( )。
数据导入导出
日志数据采集与传输
分布式计算
数据可视化
若 Flume 的 Sink 写入 HDFS 失败,系统会如何处理 ( )
丢弃失败数据
重试直到成功或达到重试次数上限
回滚 Channel 中的数据
自动切换到备用 Sink
Zookeeper 的选举算法是______。
Flume 的三种核心组件是 Source、 Channel和 _____。
Hadoop是基于______语言开发的。
Hadoop的核心组件是HDFS、_____和YARN。
HDFS中负责管理文件系统命名空间的是( )。
DataNode
NameNode
SecondaryNameNode
ResourceManager
MapReduce中,Map阶段的输出会进行( )操作。
排序和分区
合并和排序
分区和合并
直接输出
Hive中创建表的语句是( )。
CREATE TABLE
NEW TABLE
ADD TABLE
INSERT TABLE
Hadoop集群搭建时,需要配置的核心文件不包括( )。
hadoop-env.sh
core-site.xml
hdfs-site.xml
spark-env.sh
MapReduce程序中,Reducer的输入是( )。
原始数据
Map 阶段的输出
经过排序和分区的数据
经过合并的数据
Flume采集数据时,Source组件的作用是( )。
接收数据
传输数据
存储数据
处理数据