美文网首页好程序员大数据
好程序员大数据高端班划重点 hadoop常用四大模块文件

好程序员大数据高端班划重点 hadoop常用四大模块文件

作者: ab6973df9221 | 来源:发表于2019-05-16 11:39 被阅读1次

    好程序员大数据高端班划重点 hadoop常用四大模块文件

      1.core-site.xml(工具模块)。包括Hadoop常用的工具类,由原来的Hadoopcore部分更名而来。主要包括系统配置工具Configuration、远程过程调用RPC、序列化机制和Hadoop抽象文件系统FileSystem等。它们为在通用硬件上搭建云计算环境提供基本的服务,并为运行在该平台上的软件开发提供了所需的API。

    2.hdfs-site.xml(数据存储模块)。分布式文件系统,提供对应用程序数据的高吞吐量,高伸缩性,高容错性的访问。为Hadoop体系中数据存储管理的基础。它是一个高度容错的系统,能检测和应对硬件故障,用于在低成本的通用硬件上运行。HDFS简化了文件的一致性模型,通过流式数据访问,提供高吞吐量应用程序数据访问功能,适合带有大型数据集的应用程序。

      namenode+ datanode + secondarynode

    3.mapred-site.xml(数据处理模块),基于YARN的大型数据集并行处理系统。是一种计算模型,用以进行大数据量的计算。Hadoop的MapReduce实现,和Common、HDFS一起,构成了Hadoop发展初期的三个组件。MapReduce将应用划分为Map和Reduce两个步骤,其中Map对数据集上的独立元素进行指定的操作,生成键-值对形式中间结果。Reduce则对中间结果中相同“键”的所有“值”进行规约,以得到最终结果。MapReduce这样的功能划分,非常适合在大量计算机组成的分布式并行环境里进行数据处理。

    4.yarn-site.xml(作业调度+资源管理平台),任务调度和集群资源管理。resourcemanager + nodemanager

    相关文章

      网友评论

        本文标题:好程序员大数据高端班划重点 hadoop常用四大模块文件

        本文链接:https://www.haomeiwen.com/subject/avibaqtx.html