文章目录
- 1. HBase与Hive对比
- 2. HBase集成Hive
- 3. HBase与Hive集成案例
- 3.1 案例一
- 3.2 案例二
1. HBase与Hive对比
Hive | HBase | |
特点 | 类SQL 数据仓库 | NoSQL (Key-value) |
适用场景 | 离线数据分析和清洗 | 适合在线业务 |
延迟 | 延迟高 | 延迟低 |
存储位置 | 存储在HDFS | 存储在HDFS |
2. HBase集成Hive
- 配置环境变量
vim /etc/profile
export HBASE_HOME=/usr/local/hbase-1.3.1
export HIVE_HOME=/usr/local/apache-hive-1.2.2-bin
source /etc/profile
- 拷贝Hive所依赖的HBase的jar包(或者使用软链接的形式);
把zookeeper的jar包拷贝到Hive的lib目录下。
ln -s $HBASE_HOME/lib/hbase-common-1.3.1.jar $HIVE_HOME/lib/hbase-common-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-server-1.3.1.jar $HIVE_HOME/lib/hbase-server-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-client-1.3.1.jar $HIVE_HOME/lib/hbase-client-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-protocol-1.3.1.jar $HIVE_HOME/lib/hbase-protocol-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-it-1.3.1.jar $HIVE_HOME/lib/hbase-it-1.3.1.jar
ln -s $HBASE_HOME/lib/htrace-core-3.1.0-incubating.jar $HIVE_HOME/lib/htrace-core-3.1.0-incubating.jar
ln -s $HBASE_HOME/lib/hbase-hadoop2-compat-1.3.1.jar $HIVE_HOME/lib/hbase-hadoop2-compat-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-hadoop-compat-1.3.1.jar $HIVE_HOME/lib/hbase-hadoop-compat-1.3.1.jar
- 在hive-site.xml中修改zookeeper的属性。
<property>
<name>hive.zookeeper.quorum</name>
<value>bigdata11,bigdata12,bigdata13</value>
<description>The list of ZooKeeper servers to talk to. This is only needed for read/write locks.</description>
</property>
<property>
<name>hive.zookeeper.client.port</name>
<value>2181</value>
<description>The port of ZooKeeper servers to talk to. This is only needed for read/write locks.</description>
</property>
3. HBase与Hive集成案例
3.1 案例一
建立Hive表,关联HBase表,插入数据到Hive表的同时能够影响HBase表。
1) 在Hive中创建表同时关联HBase。
CREATE TABLE hive_hbase_emp_table123(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table123");
完成之后,可以分别进入Hive和HBase查看,都生成了对应的表
如果运行出错:需要更换hive的lib目录下的hive-hbase-handler-1.2.1.jar
2)在Hive中创建临时中间表hive_hbase_emp,用于load文件中的数据。
注:
① 不能将数据直接load进Hive所关联HBase的那张表中,这样两个表不能关联。通过insert的方式,走MR,两张表就关联起来了。
② 操作Hive,HBase表也会变。因为Hive和HBase关联了。但是操作HBase,Hive表不会变。
-- 创建Hive中间表
hive> CREATE TABLE hive_hbase_emp(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
row format delimited fields terminated by '\t';
-- 向Hive中间表中load数据
hive> load data local inpath '/opt/test/datas/emp.txt' into table hive_hbase_emp;
-- 通过insert命令将中间表中的数据导入到Hive关联HBase的那张表中
hive> insert into table hive_hbase_emp_table123 select * from hive_hbase_emp;
-- 查看Hive以及关联的HBase表中是否已经成功的同步插入了数据
hive> select * from hive_hbase_emp_table123;
hbase> scan 'hbase_emp_table123'
3.2 案例二
在HBase中已经存储了某一张表hbase_emp_table,然后在Hive中创建一个外部表来关联HBase中的hbase_emp_table这张表,使之可以借助Hive来分析HBase这张表中的数据。
-- 在Hive中创建外部表,必须是外部表(前提:Hbase的hbase_emp_table已经存在有数据了)
hive(default)> select * from relevance_hbase_emp;
hive(default)> CREATE EXTERNAL TABLE relevance_hbase_emp1(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
STORED BY
'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" =
":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");
-- hbase中的函数相对较少,关联后就可以使用Hive函数进行一些分析操作了
hive(default)> select * from relevance_hbase_emp;