IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> hive基础(二) hive操作大全 -> 正文阅读

[大数据]hive基础(二) hive操作大全

目录

注:只是为了以后忘了,好翻。。。。。。。做个总结

一) hive 操作

1) hive -e

2) hive -f

3) 查看在hive中输入的所有历史命令

4) hive运行日志修改

二) hive参数配置

三) hive数据类型

基本数据类型

集合数据类型

1)复杂类型解释

2)建表语句:

3)? 造数据 :text.txt

4)load数据

5)? 访问方式

hive类型转换

四) DDL操作

五) DML操作

六) 查询

七) 函数

八)压缩和存储


注:只是为了以后忘了,好翻。。。。。。。做个总结

一) hive 操作

1) hive -e

hive -e “sql” 不需要进入交互窗口

2) hive -f

hive -f? hive.sql 执行hql的文件

hive -f? hive.sql? > path/result.txt

3) 查看在hive中输入的所有历史命令

[root@henghe-052 bin]# cd /root

[root@henghe-052 ~]# cat .hivehistory

4) hive运行日志修改

hive的log默认放在 /tmp/用户

[root@henghe-052 ~]# cd /tmp/root/
修改地址

[root@henghe-052 conf]# mv hive-log4j2.properties.template ?hive-log4j2.properties

[root@henghe-052 conf]# vim hive-log4j2.properties

二) hive参数配置

1)配置文件

在hive-site.xml和hive-default.xml中配置

2)命令行方式

[root@henghe-052 apache-hive-3.1.2-bin]# ?bin/hive -hiveconf mapred.reduce.tasks=10;

3)参数声明方式

hive> set mapred.reduce.tasks=100;

参数声明>命令行>配置文件

三) hive数据类型

基本数据类型

集合数据类型

1)复杂类型解释

数组:"name":["bb","cc"]-> namearry<string>

集合:? "aa":{"bb":1,"cc":2}-> aa map<string,int>

struct: "address":{"street":"wangjing","city":"beijing"}-> address struct<street:string,city:string>

2)建表语句:

create table test(
name string,
friends array<string>,
children map<string, int>,
address struct<street:string, city:string> )
row format delimited fields terminated by ','
collection items terminated by '_'
map keys terminated by ':'
lines terminated by '\n';
字段解释:
row format delimited fields terminated by ',' -- 列分隔符
collection items terminated by '_' --MAP STRUCT 和 ARRAY 的分隔符 ( 数据分割符号 )
map keys terminated by ':' -- MAP 中的 key value 的分隔符
lines terminated by '\n'; -- 行分隔符

3)? 造数据 :text.txt

cy,tt_susu,yuanyuan:didi,chao yang_beijing

4)load数据

load data local inpath '/data/test.txt' into table test;

5)? 访问方式

hive> select friends[1],children['xiao song'],address.city from test

hive类型转换

1 )隐式类型转换规则如下
1 )任何整数类型都可以隐式地转换为一个范围更广的类型,如 TINYINT 可以转换成
INT INT 可以转换成 BIGINT
2 )所有整数类型、 FLOAT STRING 类型 都可以隐式地转换成 DOUBLE
3 TINYINT SMALLINT INT 都可以转换为 FLOAT
4 BOOLEAN 类型不可以转换为任何其它的类型。
2 )可以使用 CAST 操作显示进行数据类型转换
例如 CAST('1' AS INT) 将把字符串 '1' 转换成整数 1 ;如果强制类型转换失败,如执行
CAST('X' AS INT) ,表达式返回空值 NULL
sql例子: select '1'+2, cast('1'as int) + 2;

四) DDL操作

库操作

1) 创建数据库

CREATE DATABASE [IF NOT EXISTS] database_name
[COMMENT database_comment]
[LOCATION hdfs_path]
[WITH DBPROPERTIES (property_name=property_value, ...)];

location:指定在hdfs位置

create database if not exists db_hive2 location '/db_hive2.db';

2)修改数据库

alter database db_hive2 set dbproperties('createtime'='20210730');

3) 删除数据库

hive>drop if not exists? database db_hive2;

如果数据库不为空,加上cascade命令,强制删除

hive> drop database db_hive cascade;

表操作

建表语句

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
[(col_name data_type [COMMENT col_comment], ...)]
[COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
[CLUSTERED BY (col_name, col_name, ...)
[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]
[ROW FORMAT row_format]
[STORED AS file_format]
[LOCATION hdfs_path]
[TBLPROPERTIES (property_name=property_value, ...)]
[AS select_statement]

字段解释:

EXTERNAL: 外部表

COMMENT :注释

PARTITIONED BY: 分区表

CLUSTERED BY:分桶表

SORTED BY:对桶中的一个或多个列另外排序

ROW FORMAT:

DELIMITED [FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]
[MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]
| SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value,
property_name=property_value, ...)]
STORED AS : 存储文件类型(textfile sequencefile orc)
LOCATION : hdfs上位置
AS:后跟查询语句,根据查询结果创建表

LIKE: 复制表结构,但是不复制数据

栗子

1.创建普通表

create table if not exists student(
id int, name string
)
row format delimited fields terminated by '\t'
stored as textfile
location '/user/hive/warehouse/student';

2.根据查询结果创建表

create table if not exists student2 as select id, name from student;

3.根据已经存在的表结构创建表

create table if not exists student3 like student;

外部表

当hive执行删除表操作时,只会删元数据信息,不会删除hdfs上的数据
1)创建外部表
create external table if not exists dept(
deptno int,
dname string,
loc int
)
row format delimited fields terminated by '\t';
2)查看 desc formatted dept;

?

3)管理表表外部表互换
hive> alter table student set tblproperties('EXTERNAL'='TRUE');

?

五) DML操作

六) 查询

七) 函数

八)压缩和存储

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-07-30 12:48:25  更:2021-07-30 12:50:30 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/4 11:44:44-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码