hadoop核心技术以及框架搭建,基于Hadoop大数据如何实现数据采集,舆情监测?
互联网大数据时代,海量数据采集、数据分析、舆情监测愈来愈最重要。如何从互联网如此大集群数据中提取出有价值的数据也是网络资源实现其价值的重要基础。以Apache Hadoop为核心的顶级开源工具,拥有全面的技术服务能力,实现互联网大数据发展的需求。基于Hadoop集群环境的数据采集系统,利用分布式网络爬虫进行数据抓取,以HDFS作为底层存储系统,在其上构建基于HBase的分布式数据库对数据进行统一存储管理。然后根据采集的数据,通过检索的形式分类数据,进行一个深层次的数据分析工作。
基于Hadoop集群环境的数据采集技术分析:
1.HDFS
HDFS被设计成适合运行在通用硬件(commodityhardware)上的分布式文件系统。它和现有的分布式文件系统有很多共同点。但同时,它和其他的分布式文件系统的区别也是很明显的。HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。HDFS放宽了一部分POSIX约束,来实现流式读取文件系统数据的目的。HDFS在最开始是作为Apache Nutch搜索引擎项目的基础架构而开发的。HDFS是Apache Hadoop Core项目的一部分。
2.YARN
Apache Hadoop YARN (Yet AnotherResource Negotiator,另一种资源协调者)是一种新的 Hadoop 资源管理器,它是一个通用资源管理系统,可为上层应用提供统一的资源管理和调度,它的引入为集群在利用率、资源统一管理和数据共享等方面带来了巨大好处。
3.MapReduce
大数据处理可以通过MapReduce这一并行处理技术来提高数据的处理速度。MapReduce的设计初衷是通过大量廉价服务器实现大数据并行处理,对数据一致性要求不高,其突出优势是具有扩展性和可用性,特别适用于海量的结构化、半结构化及非结构化数据的混合处理。
MapReduce将传统的查询、分解及数据分析进行分布式处理,将处理任务分配到不同的处理节点,因此具有更强的并行处理能力。作为一个简化的并行处理的编程模型,MapReduce还降低了开发并行应用的门槛。
数道云大数据为客户打造易使用、高性能、低成本、高可靠的解决方案,帮助客户进行大数据运营,挖掘出蕴含在数据当中的价值。底层计算引擎提供海量数据存储和高速计算能力;中层大数据工作台为数据资产的开发、管理、挖掘、服务化提供工具;上层应用通过各种形式发挥数据的价值。
原文链接:http://www.sdydata.com/hyxw/info_itemid_119.html
网友评论