中成功搭建了Hive和HBase的条件,本文首要讲的是何许将Hive和HBase进行整合

Hive整合HBase后的应用境况:

(壹)通过Hive把数据加载到HBase中,数据源能够是文本也能够是Hive中的表。
(2)通过整合,让HBase帮忙JOIN、GROUP等SQL查询语法。
(叁)通过整合,不仅可成功HBase的多少实时查询,也能够选取Hive查询HBase中的数据形成复杂的数据解析。

3.2.4 修改mapred-site.xml

假如未有 mapred-site.xml
该文件,就复制mapred-site.xml.template文件天公地道命名称叫mapred-site.xml。
输入:

vim mapred-site.xml

修改那一个新建的mapred-site.xml文件,在节点内参预配置:

<property>
    <name>mapred.job.tracker</name>
    <value>master:9001</value>
</property>
<property>
      <name>mapred.local.dir</name>
       <value>/root/hadoop/var</value>
</property>
<property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
</property>

二,配置选择

JDK:1.8 (jdk-8u144-linux-x64.tar.gz)
Hadoop:2.8.2 (hadoop-2.8.2.tar.gz)
Hive: 2.1 (apache-hive-2.1.1-bin.tar.gz)
HBase:1.6.2 (hbase-1.2.6-bin.tar.gz)

2,做IP和主机名的映照

修改hosts文件,做涉嫌映射
输入

vim /etc/hosts

添加
主机的ip 和 主机名称

192.168.238.128 master

3.2.2修改 hadoop-env.sh

输入:

vim hadoop-env.sh

将${JAVA_HOME} 修改为本身的JDK路径

export   JAVA_HOME=${JAVA_HOME}

修改为:

export   JAVA_HOME=/home/java/jdk1.8

一,更改主机名

率先更改主机名,目标是为着方便管理。
输入:

hostname 

查阅本机的名称
然后改变主机名称为master
输入:

hostnamectl set-hostname master

注:主机名称改成之后,要重启(reboot)才会一蹴而就。

2,hive和hbase测试

在开始展览测试的时候,确认保证hadoop、hbase、hive环境已经打响搭建好,并且都成功运行了。
开辟xshell的七个指令窗口
一个跻身hive,一个跻身hbase

修改 hive-env.sh

修改hive-env.sh 文件,未有就复制 hive-env.sh.template
,同等对待命名称为hive-env.sh

在那几个布局文件中添加

export  HADOOP_HOME=/opt/hadoop/hadoop2.8
export  HIVE_CONF_DIR=/opt/hive/hive2.1/conf
export  HIVE_AUX_JARS_PATH=/opt/hive/hive2.1/lib

一,环境变量设置

编辑 /etc/profile 文件 :

vim /etc/profile

铺排文件:

export HADOOP_HOME=/opt/hadoop/hadoop2.8
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export PATH=.:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH

Hive整合HBase后的行使情状:

(一)通过Hive把数据加载到HBase中,数据源可以是文件也能够是Hive中的表。
(二)通过结合,让HBase支持JOIN、GROUP等SQL查询语法。
(三)通过结合,不仅可形成HBase的数额实时查询,也能够选择Hive查询HBase中的数据形成复杂的多少解析。

一,更改主机名

率先更改主机名,指标是为着方便管理。
输入:

hostname 

查阅本机的名称
然后改变主机名叫master
输入:

hostnamectl set-hostname master

注:主机名称改成之后,要重启(reboot)才会收效。

陆.二.二数额同步测试

进入hbase之后
在t_student中添加两条数据 然后查询该表

put 't_student','1001','st1:name','zhangsan'
put 't_student','1002','st1:name','lisi'
scan 't_student'

图片 1

然后切换成hive中
查询该表
输入:

select * from t_student;

图片 2

下一场在hive中剔除该表
注:因为做测试要看结果,所以将表删除了。若是同学们要做测试的话,是一向不须要删除该表的,因为在背后还会动用该表。

接下来查看hive和hbase中的表是不是删除了
输入:

drop table t_student;

图片 3

图片 4
经过那一个能够看来hive和hbase之间的多少成功同步!

三,关闭防火墙

关门防火墙,方便访问。
CentOS 七版本以下输入:
闭馆防火墙

service   iptables stop

CentOS 7 以上的本子输入:

systemctl stop firewalld.service

二,配置选择

JDK:1.8 (jdk-8u144-linux-x64.tar.gz)
Hadoop:2.8.2 (hadoop-2.8.2.tar.gz)
Hive: 2.1 (apache-hive-2.1.1-bin.tar.gz)
HBase:1.6.2 (hbase-1.2.6-bin.tar.gz)

6、Hive整合HBase的环境布署以及测试

Hive和HBase的通讯意图

Hive与HBase整合的兑现是采用两者本身对外的API接口相互通讯来形成的,其具体做事交由Hive的lib目录中的hive-hbase-handler-*.jar工具类来促成,通讯原理如下图所示。
图片 5

四,时间设置

查阅当前时间
输入:

date

翻开服务器时间是或不是壹致,若不等同则改变
改变时间命令

date -s ‘MMDDhhmmYYYY.ss’

修改hive-site.xml

切换到 /opt/hive/hive2.1/conf 目录下
将hive-default.xml.template 拷贝1份,不分相互命名字为hive-site.xml
下一场编辑hive-site.xml文件

cp hive-default.xml.template hive-site.xml
vim hive-site.xml

编辑hive-site.xml文件,在 中添加:

<!-- 指定HDFS中的hive仓库地址 -->  
  <property>  
    <name>hive.metastore.warehouse.dir</name>  
    <value>/root/hive/warehouse</value>  
  </property>  

<property>
    <name>hive.exec.scratchdir</name>
    <value>/root/hive</value>
  </property>

  <!-- 该属性为空表示嵌入模式或本地模式,否则为远程模式 -->  
  <property>  
    <name>hive.metastore.uris</name>  
    <value></value>  
  </property>  

<!-- 指定mysql的连接 -->
 <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true</value>
    </property>
<!-- 指定驱动类 -->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
   <!-- 指定用户名 -->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <!-- 指定密码 -->
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>123456</value>
    </property>
    <property>
   <name>hive.metastore.schema.verification</name>
   <value>false</value>
    <description>
    </description>
 </property>

然后将安顿文件中颇具的

${system:java.io.tmpdir}

变更为 /opt/hive/tmp (倘使未有该文件则创制),
并将此文件夹赋予读写权限,将
${system:user.name}
更改为 root

例如:
转移以前的:
图片 6
改变之后:
图片 7

配置图:
图片 8

注: 由于hive-site.xml
文件中的配置过多,能够因而FTP将它下载下来举行编辑。也足以一贯配备自身所需的,其余的能够去除。
MySQL的一连地址中的master是主机的小名,能够换到ip。

壹,环境安插

因为Hive与HBase整合的落到实处是运用两者本人对外的API接口互相通讯来实现的,其现实做事交由Hive的lib目录中的hive-hbase-handler-.jar工具类来落到实处。所以只需求将hive的
hive-hbase-handler-
.jar 复制到hbase/lib中就能够了。
切换到hive/lib目录下
输入:

cp hive-hbase-handler-*.jar /opt/hbase/hbase1.2/lib

图片 9
注:
如若在hive整合hbase中,出现版本之类的难题,那么以hbase的本子为主,将hbase中的jar包覆盖hive的jar包。

肆、Hive的条件安排

Hive环境的现实性计划在自笔者的这篇大数额学习系列之四 —–
Hadoop+Hive环境搭建图像和文字详解(单机)

以及介绍得很详细了。本篇就大约介绍下。

修改 hive-env.sh

修改hive-env.sh 文件,未有就复制 hive-env.sh.template
,比量齐观命名称叫hive-env.sh

在那几个布局文件中添加

export  HADOOP_HOME=/opt/hadoop/hadoop2.8
export  HIVE_CONF_DIR=/opt/hive/hive2.1/conf
export  HIVE_AUX_JARS_PATH=/opt/hive/hive2.1/lib

二、服务器的连锁安插

在配备Hadoop+Hive+HBase以前,应该先做一下陈设。
做那几个配置为了便于,使用root权限。

3.2.1 修改 core-site.xml

输入:

vim core-site.xml

在添加:

<configuration>
<property>
        <name>hadoop.tmp.dir</name>
        <value>/root/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
   </property>
   <property>
        <name>fs.default.name</name>
        <value>hdfs://master:9000</value>
   </property>
</configuration>

3.2.1 修改 core-site.xml

输入:

vim core-site.xml

在添加:

<configuration>
<property>
        <name>hadoop.tmp.dir</name>
        <value>/root/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
   </property>
   <property>
        <name>fs.default.name</name>
        <value>hdfs://master:9000</value>
   </property>
</configuration>

2、服务器的有关配置

在陈设Hadoop+Hive+HBase以前,应该先做一下布局。
做这么些安顿为了便于,使用root权限。

四,时间设置

翻开当昨天子
输入:

date

查阅服务器时间是还是不是相同,若差别等则变动
变更时间命令

date -s ‘MMDDhhmmYYYY.ss’

修改 hbase-site.xml

编排hbase-site.xml 文件,在抬高如下配置

<!-- 存储目录 -->
<property>  
 <name>hbase.rootdir</name>  
 <value>hdfs://test1:9000/hbase</value>  
 <description>The directory shared byregion servers.</description>  
</property>  
<!-- hbase的端口 -->
<property>  
 <name>hbase.zookeeper.property.clientPort</name>  
 <value>2181</value>  
 <description>Property from ZooKeeper'sconfig zoo.cfg. The port at which the clients will connect.  
 </description>  
</property>  
<!--  超时时间 -->
<property>  
 <name>zookeeper.session.timeout</name>  
 <value>120000</value>  
</property>  
<!--  zookeeper 集群配置。如果是集群,则添加其它的主机地址 -->
<property>  
 <name>hbase.zookeeper.quorum</name>  
 <value>test1</value>  
</property>  
<property>  
 <name>hbase.tmp.dir</name>  
 <value>/root/hbase/tmp</value>  
</property>  
<!-- false是单机模式,true是分布式模式  -->
<property>  
 <name>hbase.cluster.distributed</name>  
 <value>false</value>  
</property>

证实:hbase.rootdir:那些目录是region server的共享目录,用来持久化Hbase
。hbase.cluster.distributed
:Hbase的周转情势。false是单机方式,true是分布式格局。若为false,Hbase和Zookeeper会运转在同1个JVM里面。

一,服务器选择

本土虚拟机
操作系统:linux CentOS 7
Cpu:2核
内存:2G
硬盘:40G

hive外部表测试

先在hbase中国建工业总会公司一张t_student_info表,添加三个列族
下一场查看表结构
输入:

create 't_student_info','st1','st2'
describe 't_student_info'

图片 10

然后在hive中开创外部表
证实:制造外部表要使用EXTEPRADONAL 关键字
输入:

create external table t_student_info(id int,age int,sex string) stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' with serdeproperties("hbase.columns.mapping"=":key,st1:age,st2:sex") tblproperties("hbase.table.name"="t_student_info");

图片 11

然后在t_student_info 中添加多少

put 't_student_info','1001','st2:sex','man'
put 't_student_info','1001','st1:age','20'
put 't_student_info','1002','st1:age','18'
put 't_student_info','1002','st2:sex','woman'

图片 12

然后在hive中询问该表
输入:

select * from t_student_info;

图片 13

询问到多少之后,然后将t_student 和t_student_info举办关联合检查询。
输入:

select * from t_student t join t_student ti where t.id=ti.id ;

图片 14
证实:通过涉及查询,能够得出表之间是足以提到查询的。不过鲜明看出hive
使用私下认可的mapreduce 作为引擎是何等的慢。。。

其他注明:
是因为自身的虚拟机配置实在太渣,就算调大reduce内部存款和储蓄器,限制每一种reduce处理的数据量,照旧那多少个,最终不能够使用公司的测试服务开始展览测试。
在询问一张表的时候,hive未有使用引擎,因而相对相比快,假设是开始展览了关系查询之类的,就会动用引擎,由于hive暗中同意的引擎是mr,所以会非常的慢,也和配备有必然关系,hive贰.x之后官方就不提议选用mr了。

本文到此甘休,谢谢阅读!
版权申明:
作者:虚无境
今日头条出处:http://www.cnblogs.com/xuwujing
CSDN出处:http://blog.csdn.net/qazwsxpcm    
村办博客出处:http://www.panchengming.com
原创不易,转发请标明出处,谢谢!

三,关闭防火墙

关门防火墙,方便访问。
CentOS 七版本以下输入:
闭馆防火墙

service   iptables stop

CentOS 柒 以上的版本输入:

systemctl stop firewalld.service

陆.2.2数量同步测试

进入hbase之后
在t_student中添加两条数据 然后查询该表

put 't_student','1001','st1:name','zhangsan'
put 't_student','1002','st1:name','lisi'
scan 't_student'

图片 15

接下来切换到hive中
查询该表
输入:

select * from t_student;

图片 16

然后在hive中除去该表
注:因为做测试要看结果,所以将表删除了。就算同学们要做测试的话,是从未要求删除该表的,因为在末端还会采用该表。

然后查看hive和hbase中的表是还是不是删除了
输入:

drop table t_student;

图片 17

图片 18
透过这几个足以看到hive和hbase之间的数额成功同步!

伍、HBase的环境安插

HBase环境的切实可行计划在自笔者的那篇大数据学习连串之2 —–
HBase环境搭建(单机)

以及介绍得很详细了。本篇就大约介绍下。

六.二.3涉嫌查询测试

修改 hbase-env.sh

编排 hbase-env.sh 文件,添加以下配置

export JAVA_HOME=/opt/java/jdk1.8
export HADOOP_HOME=/opt/hadoop/hadoop2.8
export HBASE_HOME=/opt/hbase/hbase1.2
export HBASE_CLASSPATH=/opt/hadoop/hadoop2.8/etc/hadoop
export HBASE_PID_DIR=/root/hbase/pids
export HBASE_MANAGES_ZK=false

声明:配置的途径以友好的为准。HBASE_MANAGES_ZK=false
是不启用HBase自带的Zookeeper集群。

1,服务器采取

地面虚拟机
操作系统:linux CentOS 七
Cpu:2核
内存:2G
硬盘:40G

一、环境接纳

伍、HBase的环境布署

HBase环境的切实布署在自作者的那篇大数目学习类别之二 —–
HBase环境搭建(单机)

以及介绍得很详细了。本篇就大约介绍下。

一,环境变量设置

编辑 /etc/profile 文件 :

vim /etc/profile

布局文件:

export HADOOP_HOME=/opt/hadoop/hadoop2.8
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export PATH=.:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH

修改hive-site.xml

切换到 /opt/hive/hive2.1/conf 目录下
将hive-default.xml.template 拷贝1份,同仁一视命名叫hive-site.xml
下一场编辑hive-site.xml文件

cp hive-default.xml.template hive-site.xml
vim hive-site.xml

编辑hive-site.xml文件,在 中添加:

<!-- 指定HDFS中的hive仓库地址 -->  
  <property>  
    <name>hive.metastore.warehouse.dir</name>  
    <value>/root/hive/warehouse</value>  
  </property>  

<property>
    <name>hive.exec.scratchdir</name>
    <value>/root/hive</value>
  </property>

  <!-- 该属性为空表示嵌入模式或本地模式,否则为远程模式 -->  
  <property>  
    <name>hive.metastore.uris</name>  
    <value></value>  
  </property>  

<!-- 指定mysql的连接 -->
 <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true</value>
    </property>
<!-- 指定驱动类 -->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
   <!-- 指定用户名 -->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <!-- 指定密码 -->
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>123456</value>
    </property>
    <property>
   <name>hive.metastore.schema.verification</name>
   <value>false</value>
    <description>
    </description>
 </property>

然后将安顿文件中拥有的

${system:java.io.tmpdir}

变更为 /opt/hive/tmp (借使未有该公文则创立),
并将此文件夹赋予读写权限,将
${system:user.name}
更改为 root

例如:
变动在此之前的:
图片 19
更改之后:
图片 20

配置图:
图片 21

注: 由于hive-site.xml
文件中的配置过多,能够由此FTP将它下载下来进行编写制定。也能够直接配置自身所需的,其余的能够去除。
MySQL的连日地址中的master是主机的外号,能够换来ip。

三、Hadoop的环境布署

Hadoop的切实可行计划在大数据学习类别之1 —–
Hadoop环境搭建(单机)

中介绍得很详细了。所以本文就大约介绍一下。
注:具体安排以投机的为准。

六.二.壹在hive中创立映射hbase的表

在hive中开创3个映射hbase的表,为了便利,设置两边的表名都为t_student,存款和储蓄的表也是其一。
在hive中输入:

create table t_student(id int,name string) stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' with serdeproperties("hbase.columns.mapping"=":key,st1:name") tblproperties("hbase.table.name"="t_student","hbase.mapred.output.outputtable" = "t_student");

说明:第一个t_student
是hive表中的名称,第三个t_student是概念在hbase的table名称
,第伍个t_student 是储存数据表的名称(“hbase.mapred.output.outputtable”
= “t_student”那几个能够不用,表数据就存款和储蓄在其次个表中了) 。
(id int,name string)
那一个是hive表结构。尽管要追加字段,就以那种格式扩展。假如要加进字段的笺注,那么在字段前边添加comment
‘你要讲述的’。
例如:
create table t_student(id int comment ‘StudentId’,name string comment
‘StudentName’)
org.apache.hadoop.hive.hbase.HBaseStorageHandler 这么些是内定的存款和储蓄器。
hbase.columns.mapping 是概念在hbase的列族。
诸如:st一正是列族,name正是列。在hive中开创表t_student,那一个表包涵三个字段(int型的id和string型的name)。
映射为hbase中的表t_student,key对应hbase的rowkey,value对应hbase的st1:name列。

表成功开创之后
在hive、hbase分别中查看表和表结构
hive中输入

show tables;
describe t_student;

hbase输入:

list
describe ‘t_student’

图片 22

图片 23
能够见到表已经成功的始建了

三,下载地址

官网地址
JDK:
http://www.oracle.com/technetwork/java/javase/downloads
Hadopp:
http://www.apache.org/dyn/closer.cgi/hadoop/common
Hive
http://mirror.bit.edu.cn/apache/hive/
HBase:
http://mirror.bit.edu.cn/apache/hbase/

百度云盘
链接:https://pan.baidu.com/s/1jIemIDC 密码:uycu

添加 数据驱动包

是因为Hive 默许自带的数据库是运用mysql,所以那块正是用mysql
将mysql 的驱动包 上盛传 /opt/hive/hive二.1/lib

2,hive和hbase测试

在进展测试的时候,确认保障hadoop、hbase、hive环境已经打响搭建好,并且都成功运转了。
开辟xshell的八个指令窗口
2个进来hive,二个进来hbase

伍,全部的条件安排

/etc/profile 的完全布局

#Java Config
export JAVA_HOME=/opt/java/jdk1.8
export JRE_HOME=/opt/java/jdk1.8/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib

# Scala Config
export SCALA_HOME=/opt/scala/scala-2.12.2


# Spark Config
export  SPARK_HOME=/opt/spark/spark1.6-hadoop2.4-hive

# Zookeeper Config
export ZK_HOME=/opt/zookeeper/zookeeper3.4

# HBase Config
export HBASE_HOME=/opt/hbase/hbase1.2

# Hadoop Config 
export HADOOP_HOME=/opt/hadoop/hadoop2.8
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

# Hive Config
export HIVE_HOME=/opt/hive/hive2.1
export HIVE_CONF_DIR=${HIVE_HOME}/conf

export PATH=.:${JAVA_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${ZK_HOME}/bin:${HBASE_HOME}/bin:${HIVE_HOME}/bin:$PATH

图片 24

注:具体的配备以团结的为准,未有的不要配置。

陆.二.1在hive中创立映射hbase的表

在hive中开创二个映射hbase的表,为了有利于,设置两边的表名都为t_student,存款和储蓄的表也是以此。
在hive中输入:

create table t_student(id int,name string) stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' with serdeproperties("hbase.columns.mapping"=":key,st1:name") tblproperties("hbase.table.name"="t_student","hbase.mapred.output.outputtable" = "t_student");

说明:第一个t_student
是hive表中的名称,第三个t_student是概念在hbase的table名称
,第13个t_student 是储存数据表的称呼(“hbase.mapred.output.outputtable”
= “t_student”那些能够毫不,表数据就存款和储蓄在第3个表中了) 。
(id int,name string)
那么些是hive表结构。假如要追加字段,就以那种格式扩大。假若要加进字段的注释,那么在字段前面添加comment
‘你要讲述的’。
例如:
create table t_student(id int comment ‘StudentId’,name string comment
‘StudentName’)
org.apache.hadoop.hive.hbase.HBaseStorageHandler 这么些是内定的存款和储蓄器。
hbase.columns.mapping 是概念在hbase的列族。
譬如:st一正是列族,name就是列。在hive中创设表t_student,那一个表包涵多个字段(int型的id和string型的name)。
映射为hbase中的表t_student,key对应hbase的rowkey,value对应hbase的st1:name列。

表成功创办之后
在hive、hbase分别中查看表和表结构
hive中输入

show tables;
describe t_student;

hbase输入:

list
describe ‘t_student’

图片 25

图片 26
可以看到表已经成功的创造了

四、Hive的条件布署

Hive环境的切实可行安顿在自身的那篇大数目学习连串之4 —–
Hadoop+Hive环境搭建图像和文字详解(单机)

以及介绍得很详细了。本篇就差不离介绍下。

壹,环境安顿

因为Hive与HBase整合的贯彻是行使两者自身对外的API接口相互通讯来形成的,其实际工作交由Hive的lib目录中的hive-hbase-handler-.jar工具类来完毕。所以只须要将hive的
hive-hbase-handler-
.jar 复制到hbase/lib中就能够了。
切换到hive/lib目录下
输入:

cp hive-hbase-handler-*.jar /opt/hbase/hbase1.2/lib

图片 27
注:
要是在hive整合hbase中,出现版本之类的标题,那么以hbase的版本为主,将hbase中的jar包覆盖hive的jar包。

3、Hadoop的环境布置

Hadoop的求实安顿在大数量学习连串之1 —–
Hadoop环境搭建(单机)

中介绍得很详细了。所以本文就大约介绍一下。
注:具体布署以友好的为准。

3.2.3修改 hdfs-site.xml

输入:

vim hdfs-site.xml

在添加:

<property>
   <name>dfs.name.dir</name>
   <value>/root/hadoop/dfs/name</value>
   <description>Path on the local filesystem where theNameNode stores the namespace and transactions logs persistently.</description>
</property>
<property>
   <name>dfs.data.dir</name>
   <value>/root/hadoop/dfs/data</value>
   <description>Comma separated list of paths on the localfilesystem of a DataNode where it should store its blocks.</description>
</property>
<property>
   <name>dfs.replication</name>
   <value>2</value>
</property>
<property>
      <name>dfs.permissions</name>
      <value>false</value>
      <description>need not permissions</description>
</property>

1、环境采用

引言

在上1篇 大数量学习种类之四 —–
Hadoop+Hive环境搭建图像和文字详解(单机)

和之前的大数额学习体系之2 —–
HBase环境搭建(单机)

中成功搭建了Hive和HBase的环境,并进行了对应的测试。本文主要讲的是怎么着将Hive和HBase进行整合。

3,下载地址

官网地址
JDK:
http://www.oracle.com/technetwork/java/javase/downloads
Hadopp:
http://www.apache.org/dyn/closer.cgi/hadoop/common
Hive
http://mirror.bit.edu.cn/apache/hive/
HBase:
http://mirror.bit.edu.cn/apache/hbase/

百度云盘
链接:https://pan.baidu.com/s/1jIemIDC 密码:uycu

hive外部表测试

先在hbase中国建工总集团一张t_student_info表,添加四个列族
下一场查看表结构
输入:

create 't_student_info','st1','st2'
describe 't_student_info'

图片 28

然后在hive中开创外部表
表明:创造外部表要使用EXTERubiconNAL 关键字
输入:

create external table t_student_info(id int,age int,sex string) stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' with serdeproperties("hbase.columns.mapping"=":key,st1:age,st2:sex") tblproperties("hbase.table.name"="t_student_info");

图片 29

然后在t_student_info 中添加多少

put 't_student_info','1001','st2:sex','man'
put 't_student_info','1001','st1:age','20'
put 't_student_info','1002','st1:age','18'
put 't_student_info','1002','st2:sex','woman'

图片 30

接下来在hive中查询该表
输入:

select * from t_student_info;

图片 31

查询到数码现在,然后将t_student 和t_student_info举办关联查询。
输入:

select * from t_student t join t_student ti where t.id=ti.id ;

图片 32
证实:通过涉及查询,能够得出表之间是足以提到查询的。然而显然看出hive
使用默许的mapreduce 作为引擎是何其的慢。。。

别的验证:
出于投机的虚拟机配置实在太渣,即便调大reduce内部存款和储蓄器,限制各种reduce处理的数据量,还是要命,最终不可能使用公司的测试服务拓展测试。
在询问一张表的时候,hive未有运用引擎,因此相对比较快,假若是进展了关系查询之类的,就会选用引擎,由于hive默许的引擎是mr,所以会非常的慢,也和配备有早晚关系,hive二.x之后官方就不建议采取mr了。

本文到此甘休,多谢阅读!
版权注脚:
作者:虚无境
博客园出处:http://www.cnblogs.com/xuwujing
CSDN出处:http://blog.csdn.net/qazwsxpcm    
个人博客出处:http://www.panchengming.com
原创不易,转发请标明出处,谢谢!

二,配置文件更改

先切换成 /home/hadoop/hadoop贰.8/etc/hadoop/ 索引下

六.二.3关乎查询测试

修改 hbase-env.sh

编排 hbase-env.sh 文件,添加以下配置

export JAVA_HOME=/opt/java/jdk1.8
export HADOOP_HOME=/opt/hadoop/hadoop2.8
export HBASE_HOME=/opt/hbase/hbase1.2
export HBASE_CLASSPATH=/opt/hadoop/hadoop2.8/etc/hadoop
export HBASE_PID_DIR=/root/hbase/pids
export HBASE_MANAGES_ZK=false

证明:配置的路子以温馨的为准。HBASE_MANAGES_ZK=false
是不启用HBase自带的Zookeeper集群。

添加 数据驱动包

出于Hive 暗许自带的数据库是运用mysql,所以那块正是用mysql
将mysql 的驱动包 上传来 /opt/hive/hive贰.1/lib

Hive和HBase的通讯意图

Hive与HBase整合的兑现是应用两者自己对外的API接口相互通信来成功的,其具体做事交由Hive的lib目录中的hive-hbase-handler-*.jar工具类来实现,通讯原理如下图所示。
图片 33

陆、Hive整合HBase的环境布署以及测试

3.2.3修改 hdfs-site.xml

输入:

vim hdfs-site.xml

在添加:

<property>
   <name>dfs.name.dir</name>
   <value>/root/hadoop/dfs/name</value>
   <description>Path on the local filesystem where theNameNode stores the namespace and transactions logs persistently.</description>
</property>
<property>
   <name>dfs.data.dir</name>
   <value>/root/hadoop/dfs/data</value>
   <description>Comma separated list of paths on the localfilesystem of a DataNode where it should store its blocks.</description>
</property>
<property>
   <name>dfs.replication</name>
   <value>2</value>
</property>
<property>
      <name>dfs.permissions</name>
      <value>false</value>
      <description>need not permissions</description>
</property>

2,配置文件更改

先切换到 /home/hadoop/hadoop二.8/etc/hadoop/ 索引下

引言

在上一篇 大数量学习连串之肆 —–
Hadoop+Hive环境搭建图像和文字详解(单机)

和从前的大数目学习种类之二 —–
HBase环境搭建(单机)

中成功搭建了Hive和HBase的环境,并展开了对应的测试。本文主要讲的是何等将Hive和HBase实行结合。

修改 hbase-site.xml

编写制定hbase-site.xml 文件,在抬高如下配置

<!-- 存储目录 -->
<property>  
 <name>hbase.rootdir</name>  
 <value>hdfs://test1:9000/hbase</value>  
 <description>The directory shared byregion servers.</description>  
</property>  
<!-- hbase的端口 -->
<property>  
 <name>hbase.zookeeper.property.clientPort</name>  
 <value>2181</value>  
 <description>Property from ZooKeeper'sconfig zoo.cfg. The port at which the clients will connect.  
 </description>  
</property>  
<!--  超时时间 -->
<property>  
 <name>zookeeper.session.timeout</name>  
 <value>120000</value>  
</property>  
<!--  zookeeper 集群配置。如果是集群,则添加其它的主机地址 -->
<property>  
 <name>hbase.zookeeper.quorum</name>  
 <value>test1</value>  
</property>  
<property>  
 <name>hbase.tmp.dir</name>  
 <value>/root/hbase/tmp</value>  
</property>  
<!-- false是单机模式,true是分布式模式  -->
<property>  
 <name>hbase.cluster.distributed</name>  
 <value>false</value>  
</property>

表明:hbase.rootdir:那些目录是region server的共享目录,用来持久化Hbase
。hbase.cluster.distributed
:Hbase的运作格局。false是单机格局,true是分布式形式。若为false,Hbase和Zookeeper会运维在同四个JVM里面。

3,Hadoop启动

起步在此之前供给先格式化
切换到/home/hadoop/hadoop2.8/bin目录下
输入:

./hadoop  namenode  -format

格式化成功后,再切换成/home/hadoop/hadoop二.8/sbin目录下
启动hdfs和yarn
输入:

start-dfs.sh
start-yarn.sh

起步成功后,输入jsp查看是还是不是运维成功
在浏览器输入 ip+808八 和ip +50070 界面查看是还是不是能访问
能科学访问则运维成功

3.2.2修改 hadoop-env.sh

输入:

vim hadoop-env.sh

将${JAVA_HOME} 修改为和谐的JDK路径

export   JAVA_HOME=${JAVA_HOME}

修改为:

export   JAVA_HOME=/home/java/jdk1.8

二,做IP和主机名的照耀

修改hosts文件,做涉嫌映射
输入

vim /etc/hosts

添加
长机的ip 和 主机名称

192.168.238.128 master

伍,全部的条件布置

/etc/profile 的欧洲经济共同体安插

#Java Config
export JAVA_HOME=/opt/java/jdk1.8
export JRE_HOME=/opt/java/jdk1.8/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib

# Scala Config
export SCALA_HOME=/opt/scala/scala-2.12.2


# Spark Config
export  SPARK_HOME=/opt/spark/spark1.6-hadoop2.4-hive

# Zookeeper Config
export ZK_HOME=/opt/zookeeper/zookeeper3.4

# HBase Config
export HBASE_HOME=/opt/hbase/hbase1.2

# Hadoop Config 
export HADOOP_HOME=/opt/hadoop/hadoop2.8
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

# Hive Config
export HIVE_HOME=/opt/hive/hive2.1
export HIVE_CONF_DIR=${HIVE_HOME}/conf

export PATH=.:${JAVA_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${ZK_HOME}/bin:${HBASE_HOME}/bin:${HIVE_HOME}/bin:$PATH

图片 34

注:具体的配备以温馨的为准,未有的不要配置。

3.2.4 修改mapred-site.xml

一旦未有 mapred-site.xml
该公文,就复制mapred-site.xml.template文件比量齐观命名字为mapred-site.xml。
输入:

vim mapred-site.xml

修改那一个新建的mapred-site.xml文件,在节点内投入配置:

<property>
    <name>mapred.job.tracker</name>
    <value>master:9001</value>
</property>
<property>
      <name>mapred.local.dir</name>
       <value>/root/hadoop/var</value>
</property>
<property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
</property>

3,Hadoop启动

运维在此以前供给先格式化
切换到/home/hadoop/hadoop2.8/bin目录下
输入:

./hadoop  namenode  -format

格式化成功后,再切换来/home/hadoop/hadoop二.8/sbin目录下
启动hdfs和yarn
输入:

start-dfs.sh
start-yarn.sh

运转成功后,输入jsp查看是或不是运行成功
在浏览器输入 ip+808捌 和ip +50070 界面查看是还是不是能访问
能正确访问则运行成功

相关文章