IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> Hive安装部署 -> 正文阅读

[大数据]Hive安装部署

Hive安装部署

1、主机分配

Node内存大小(G)ipApplications系统JDK
hadoop014192.168.159.128NameNode、DataNode、ResourceManager、NodeManager、Zookeeper、MySQLCentOS7jdk1.8.0_144
hadoop024192.168.159.129SecondaryNameNode、DataNode、NodeManager、Zookeeper、HiveCentOS7jdk1.8.0_144
hadoop034192.168.159.130DataNode、NodeManager、ZookeeperCentOS7jdk1.8.0_144

注:本文只涉及Hive安装,Hive依赖Hadoop,不依赖Zookeeper,其他安装详见Hadoop集群的安装Zookeeper集群安装Linux安装mysql5.7

2、文件下载

下载连接:http://archive.apache.org/dist/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz,在Hadoop集群的安装中已经提过,下载后,存放于hadoop01服务器/root/softwares目录

3、Hive安装

3.1、解压、安装、重命名

[root@hadoop01 ~]# cd /root/softwares
[root@hadoop01 softwares]# scp apache-hive-2.1.1-bin.tar.gz root@hadoop02:/root
[root@hadoop02 ~]# tar -zxvf apache-hive-2.1.1-bin.tar.gz -C /usr/local/    #执行完后apache-hive-2.1.1-bin.tar.gz可删除
[root@hadoop02 ~]# cd /usr/local/
[root@hadoop02 local]# mv apache-hive-2.1.1-bin hive

3.2、修改配置文件

以下命令与操作,若无特殊说明,均指在hadoop02中执行

3.2.1、配置profile

vim /etc/profile,在profile文件下追加

# Hive
export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin

3.2.2、配置hive-env.sh

cd /usr/local/hive/conf/
cp hive-env.sh.template hive-env.sh #拷贝一份hive-env.sh文件

hive-env.sh文件末追如下内容(若有则做修改)

export HIVE_CONF_DIR=/usr/local/hive/conf       #hive配置文件路径
export JAVA_HOME=/usr/local/java/jdk1.8.0_144   #jdk路径
export HADOOP_HOME=/usr/local/hadoop            #hadoop路径
export HIVE_AUX_JARS_PATH=/usr/local/hive/lib   #hive lib路径

3.2.3、配置hive-site.xml

cd /usr/local/hive/conf/

cp hive-default.xml.template hive-site.xml #拷贝一份hive-site.xml文件

vim hive-site.xml

替换前替换后替换命令(命令模式下执行)范围
${system:java.io.tmpdir}/usr/local/hive/iotmp:%s#${system:java.io.tmpdir}#/usr/local/hive/iotmp#g全文件
${system:user.name}root:%s#${system:user.name}#/root#g全文件

注:配置完后,确认配置是否有误

补充:该文件有两处配置项

序号namevalue说明
1hive.metastore.warehouse.dir/user/hive/warehouse该路径为hdfs路径,指定hive存储数据目录
2hive.exec.scratchdir/tmp/hive该路径为hdfs路径,hive临时文件目录

3.2.4、配置mysql连接

1、vim hive-site.xml,以下属性做对应修改

  <!-- mysql连接url,设置字符集为latin1,hive为存放hive元数据的库名,会自动创建 -->
  <property> 
    <name>javax.jdo.option.ConnectionURL</name>  
    <value>jdbc:mysql://hadoop01:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=latin1&amp;verifyServerCertificate=false&amp;useSSL=false</value> 
  </property>  
  <!-- mysql用户名-->
  <property> 
    <name>javax.jdo.option.ConnectionUserName</name>  
    <value>root</value> 
  </property>  
  <!-- mysql用户名对应的密码-->
  <property> 
    <name>javax.jdo.option.ConnectionPassword</name>  
    <value>123456</value> 
  </property>  
  <!-- mysql驱动,高版本的mysql可用高版本驱动 -->
  <property> 
    <name>javax.jdo.option.ConnectionDriverName</name>  
    <value>com.mysql.jdbc.Driver</value> 
  </property> 

2、确定hive的lib下是否有mysql驱动

ls $HIVE_HOME/lib | grep mysql

若没有,可去maven仓库中下载mysql驱动,存放于hadoop01的/root/softwares目录下

hadoop01执行:

scp mysql-connector-java-5.1.47.jar root@hadoop02:/usr/local/hive/lib   #确定上一步配置的驱动,在该包中存在

执行完后可再检查以下

3、初始化hive元数据

schematool --initSchema -dbType mysql

执行完后,mysql会多一个hive库,里面会有一些存放hive元数据的表

3.2.5、core-site.xml

追加以下内容

<property>
   <name>hadoop.proxyuser.root.hosts</name>
   <value>*</value>
</property>
<property>
   <name>hadoop.proxyuser.root.groups</name>
   <value>*</value>
</property>

配置完core-site.xml文件,分发至hadoop01、hadoop03:

#分发core-site.xml文件至hadoop01
scp /usr/local/hadoop/etc/hadoop/core-site.xml root@hadoop01/usr/local/hadoop/etc/hadoop/core-site.xml 
#分发core-site.xml文件至hadoop02
scp /usr/local/hadoop/etc/hadoop/core-site.xml root@hadoop03/usr/local/hadoop/etc/hadoop/core-site.xml 

4、Hive启动

执行完第3步Hive安装后,重启hadoop集群,stop-all.sh,start-all.sh

Hive有两种服务:

1、hiveserver2

2、metastore

4.1、hiveserver2

1、该服务端口号默认是10000
2、可以单独启动该服务,供远程客户端连接,此服务内置metastore服务
3、可通过以下命令启动:
nohup hive --service hiveserver2 >/dev/null 2>&1 &

启动后,可通过http://hadoop02:10002/访问hiveserver2服务,其中hadoop02为hiveserver2服务主机ip

4.2、metastore

1、此服务才是真正连接元数据库的服务进程
2、也可以让远程客户端连接
3、可通过以下命令启动:
nohup hive --service metastore >/dev/null 2>&1 &

5、Hive连接

hive连接前,启动hiveserver2服务

5.1、linux客户端连接

在需要连接hive服务端的客户端上安装hive,如hadoop02作为hive服务端,想在hadoop01上连接hadoop02的hive,则要在hadoop01上安装hive。

执行3.1、3.2.1、3.2.2。

3.2.3中的配置文件hive-site.xml则如下

<configuration>
 <property>
   <name>hive.metastore.uris</name>
   <value>thrift://hadoop02:9083</value>
 </property>
</configuration>

补充:

1、thrift为协议名称

2、hadoop02为hive metastore服务所在主机ip地址

3、9083为默认端口

5.2、jdbc连接hive

maven依赖如下

<!-- hadoop的依赖 -->
<dependency>
   <groupId>org.apache.hadoop</groupId>
   <artifactId>hadoop-client</artifactId>
   <version>2.7.6</version>
</dependency>
<dependency>
   <groupId>org.apache.hadoop</groupId>
   <artifactId>hadoop-common</artifactId>
   <version>2.7.6</version>
   <classifier>tests</classifier>
</dependency>
<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-core</artifactId>
    <version>1.2.1</version>
</dependency>
<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-jdbc</artifactId>
    <version>2.1.1</version>
</dependency>

测试类

import lombok.extern.slf4j.Slf4j;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.Statement;

@Slf4j
public class HiveJDBCTest {

    /**
     * hive启动,可能因引入的hive-jdbc版本不同而有所差异
     */
    private static String driverName = "org.apache.hive.jdbc.HiveDriver";

    public static void main(String[] args) throws Exception {
        Class.forName(driverName);
        /**
         * 1、hadoop02为hiveserver2服务所在主机ip地址,
         * 2、10000为hiveserver2服务默认端口
         * 3、default为hive数据库名,初始化后,默认创建
         * 4、root为core-site.xml文件hadoop.proxyuser.root.hosts和hadoop.proxyuser.root.groups配置项中的root
         */
        Connection con = DriverManager.getConnection("jdbc:hive2://hadoop02:10000/default", "root", "");
        Statement stmt = con.createStatement();
        String tableName = "hiveTest";
        stmt.execute("drop table if exists " + tableName);
        log.info("create table success");
    }
}

执行完上述测试类后

http://hadoop02:10002/hiveserver2.jsp 可查看到执行过的查询

http://hadoop02:10002/logs/ 可查看hive日志

5.3、hive后台

在hadoop02中执行hive,可进入hive后台

show databases; #查看数据库

use default; #进入数据库

show tables; # 查看数据库下的表,hive元数据存在mysql中,故也可以通过mysql的hive数据库表TBLS查看hive下的表名

show create table jdbctest; #查看见表语句

说明:HQL命令是类SQL,语法与mysql极其相似

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-12-06 15:20:16  更:2021-12-06 15:20:33 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/24 9:56:26-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码