本文介绍: hadoop主要解决海量数据存储海量数据分析计算hadoop发展历史Google是hadoop的思想之源(Google在大数据方面的三篇论文)2006年3月,Mapreduce和Nutch Distributed File System(NDFS)分别被纳入到Hadoop项目,Hadoop正式诞生。

hadoop主要解决:海量数据存储海量数据的分析计算

hadoop发展历史

Google是hadoop的思想之源(Google在大数据方面的三篇论文

2006年3月,Mapreduce和Nutch Distributed File System(NDFS)分别被纳入到Hadoop项目,Hadoop正式诞生。

MapReduce

海量数据处理

map函数行数据的提取排序实现mapper,四个形参(输入key输入value输出key输出value),重写map方法,将输出信息写入context

reduce函数行数据的计算实现reduce,四个形参也是指定输入输出类型reduce的输入类型必须匹配map的输出类型

job负责执行控制整个作业运行

分为两个阶段map阶段并行处理输入数据,reduce阶段map结果进行汇总

map阶段

一个阶段把输入文件进行分片

第二个阶段对输入的数据按照一定的规则解析键值对,key表示每行字符偏移值,value表示行文本内容

第三阶段调用map方法解析出来的每个键值对,调用一次map方法

第四阶段是按照一定规则对第三阶段输出的键值对进行分区

第五阶段是对每个分区中的键值对进行排序,首先按照key排序,再按value进行排序,完成后将数据写入内存中,内存中这片区域叫做环形缓存区。

 

reduce阶段

第一阶段copy map阶段输出的键值对

第二阶段把数据进行合并排序,把复制到ruduce阶段的数据全部合并,在对合并后的数据进行排序

第三个阶段是对排序后的键值对调用reduce方法最后把输出的键值对写入到HDFS文件

HDFS

一个分布式文件系统

概念

整个HDFS有三个重要的角色:NameNode,DataNode,Client

    NameNode:可看作是分布式文件系统管理者,主要负责文件系统命令空间集群配置信息,存储块的复制,namenode会将文件系统metadata存储在内存中,这些信息主要包括了文件信息每个文件对应的文件块的信息每个文件块在datanode信息等。

     DataNode:是slave节点,是文件存储的基本单位,他将block存储在本地文件系统中,保存blockmetadata,同时周期性的将所有存在的block信息发送namenode

     Client:切分文件访问hdfs;与namenode交互获取文件位置信息;与datanode交互读取和写入数据。

     还有一个block概念blockhdfs读写基本单位,hdfs最初都是被切割block块存储的,这些块被复制到多个datanode中,块的大小(通常为128M)与复制的块数量在创建文件时由client决定。

               最小化寻址开销

              也不能设置过大,map任务通常一次只处理一个块中的数据,如果任务数太少(少于集群中的节点数量),作业运行速度就会比较

   写入流程

用户客户端提出请求,要存储200M的数据;

client指定计划,将数据按照128M进行切分;

client告诉namenode,让把128m的数据复制为三份

namenode将三个datanode的地址告诉client,并且将他们根据到client的距离进行排序

client将数据与清单发送给第一个datanode,第一个datanode将数据复制给第二个datanode,第二个将数据复制给第三个datanode

如果某一个块的数据已经全部写入,就给namenode反馈已完成,对第二个block也进行相同的操作

所有的block已经全部写入,关闭文件,namenode会将数据持久化到磁盘上;

读取流程:

用户向客户端提出读取请求

client向namenode请求文件的所有信息

namenode将给client这个文件的块列表,以及存储各个块的数据节点清单(按照与client的距离排序

client从最近的datanode下载所需的块。

YARN

简称yarn,一种资源协调者,是hadoop资源管理

ResourceManager(RM):整个集群资源的老大

ApplicationMaster(AM):单个任务运行的老大

NodeManager(NM):单个节点服务器资源老大

Container:容器,相当于一台独立的服务器里面封装任务运行所需要资源,如内存、cpu磁盘网络等。

HDFS,YARN,MapReduce三者关系

大数据技术生态系统

)Sqoop:Sqoop 是一款开源工具,主要用于在 Hadoop、Hive 与传统的数据库(MySQL)间进行数据的传递,可以一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到 Hadoop 的 HDFS 中,也可以将 HDFS 的数据导进到关系型数据库中。

2)Flume:Flume 是一个高可用的,高可靠的,分布式的海量日志采集聚合传输系统,Flume 支持日志系统定制各类数据发送方,用于收集数据;

3)Kafka:Kafka 是一种高吞吐量分布式发布订阅消息系统

4)Spark:Spark当前最流行的开源大数据内存计算框架可以基于 Hadoop 上存储的大数据进行计算

5)Flink:Flink 是当前最流行的开源大数据内存计算框架用于实时计算的场景较多。

6)Oozie:Oozie 是一个管理 Hadoop 作业job)的工作流程调度管理系统

7)Hbase:HBase 是一个分布式的、面向列的开源数据库。HBase 不同于一般的关系数据库

它是一个适合于非结构化数据存储的数据库

8)Hive:Hive 是基于 Hadoop 的一个数据仓库工具可以结构化的数据文件映射为一张数据库表,并提供简单的 SQL 查询功能,可以将 SQL 语句转换为 MapReduce 任务进行运行。其优点是学习成本低,可以通过类 SQL 语句快速实现简单的 MapReduce 统计,不必开发专门的 MapReduce 应用,十分适合数据仓库的统计分析

9)ZooKeeper:它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务分布式同步、组服务等。

原文地址:https://blog.csdn.net/u014755700/article/details/134690217

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。

如若转载,请注明出处:http://www.7code.cn/show_10217.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注