手册简介
一个在hadoop中用来处理结构化数据的数据仓库基础工具。
手册说明
Hive是一个在Hadoop中用来处理结构化数据的数据仓库基础工具。它架构在Hadoop之上,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。
术语“大数据”是大型数据集,其中包括体积庞大,高速,以及各种由与日俱增的数据的集合。使用传统的数据管理系统难以加工大型数据。因此,Apache软件基金会推出了一款名为Hadoop的解决大数据管理和处理难题的框架。
Hadoop
Hadoop是一个在分布式环境中存储和处理大型数据的开源框架。它包含两个模块,一个是MapReduce,另外一个是Hadoop分布式文件系统(HDFS)。
- MapReduce:它是一种在大型集群上的并行编程模型,普通硬件可用于处理大型结构化,半结构化和非结构化数据。
- HDFS:Hadoop分布式文件系统是Hadoop的框架的一部分,用于存储和处理数据集。它提供了一个在普通硬件上运行的容错文件系统。
Hadoop生态系统包含了用于协助Hadoop的不同的子项目(工具)模块,如Sqoop, Pig 和 Hive。
- Sqoop: 它用来在HDFS和RDBMS之间导入和导出数据。
- Pig: 它用来开发MapReduce操作的脚本程序语言的平台。
- Hive: 它用来开发SQL类型脚本,用于做MapReduce操作的平台。
注:有多种方法来执行MapReduce作业:
- 传统的方法是使用Java MapReduce程序结构化,半结构化和非结构化数据。
- 针对MapReduce的脚本的方式,使用Pig来处理结构化和半结构化数据。
- Hive查询语言(HiveQL或HQL)采用Hive为MapReduce的处理结构化数据。
Hive是什么?
Hive是一个在Hadoop中用来处理结构化数据的数据仓库基础工具。它架构在Hadoop之上。
最初,Hive是由Facebook开发,后来由Apache软件基金会开发,并作为进一步将它作为名义下Apache Hive为一个开源项目。它用在好多不同的公司。例如,亚马逊在 Amazon Elastic MapReduce使用它。
Hive 不是
- 一个关系数据库
- 一个设计用于联机事务处理(OLTP)
- 实时查询和行级更新的语言
Hive特点
- 它存储架构在一个数据库中并处理数据到HDFS。
- 它是专为OLAP设计。
- 它提供SQL类型语言查询叫HiveQL或HQL。
- 它是低学习成本,快速和可扩展的。
Hive架构
下面的组件图描绘了Hive的结构:
该组件图包含不同的单元。下表描述每个单元:
单元名称 | 操作 |
---|---|
用户接口/界面 | Hive是一个数据仓库基础工具软件,可以创建用户和HDFS之间互动。用户界面,Hive支持是Hive的Web UI,Hive命令行,HiveHD洞察(在Windows服务器)。 |
元存储 | Hive选择各自的数据库服务器,用以储存表,数据库,列模式或元数据表,它们的数据类型和HDFS映射。 |
HiveQL处理引擎 | HiveQL的Metastore模式信息查询类似于SQL的查询上。这是传统的方式进行MapReduce程序的替代品之一。相反,使用Java编写的MapReduce程序,可以编写为MapReduce工作,并处理它的查询。
|
执行引擎 | HiveQL处理引擎和MapReduce的结合部分是由Hive执行引擎。执行引擎处理查询并产生结果和MapReduce的结果一样。它采用MapReduce方法。 |
HDFS 或 HBASE | Hadoop的分布式文件系统或者HBASE数据存储技术是用于将数据存储到文件系统。 |
Hive工作原理
下图描述了Hive 和Hadoop之间的工作流程。
下表定义Hive和Hadoop框架的交互方式:
Step No. | 操作 |
---|---|
1 | Execute Query
Hive接口,如命令行或Web UI发送查询驱动程序(任何数据库驱动程序,如JDBC,ODBC等)来执行。 |
2 | Get Plan
在驱动程序帮助下查询编译器,分析查询检查语法和查询计划或查询的要求。 |
3 | Get Metadata
编译器发送元数据请求到Metastore(任何数据库)。 |
4 | Send Metadata
Metastore发送元数据,以编译器的响应。 |
5 | Send Plan
编译器检查要求,并重新发送计划给驱动程序。到此为止,查询解析和编译完成。 |
6 | Execute Plan
驱动程序发送的执行计划到执行引擎。 |
7 | Execute Job
在内部,执行作业的过程是一个MapReduce工作。执行引擎发送作业给JobTracker,在名称节点并把它分配作业到TaskTracker,这是在数据节点。在这里,查询执行MapReduce工作。 |
7.1 | Metadata Ops
与此同时,在执行时,执行引擎可以通过Metastore执行元数据操作。 |
8 | Fetch Result
执行引擎接收来自数据节点的结果。 |
9 | Send Results
执行引擎发送这些结果值给驱动程序。 |
10 | Send Results
驱动程序将结果发送给Hive接口。 |
更新记录
-
Hive 内置函数 09-29 10:10
-
Hive 内置运算符 09-29 10:07
-
Hive 修改表 09-29 09:57
-
Hive 创建表 09-29 09:48
-
Hive 数据类型 09-29 09:47
-
HiveQL Select语句与Group By子句 09-28 14:53
-
HiveQL 连接 09-28 14:53
-
HiveQL Select语句与Order By子句 09-28 14:42
-
HiveQL Select语句与Where子句 09-28 14:40
-
Hive 视图和索引 09-28 14:31