IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> sqoop 常用命令及参数 -> 正文阅读

[大数据]sqoop 常用命令及参数

Sqoop User Guide (v1.4.7) (apache.org)

Sqoop 安装及配置

sqoop 命令说明

数据抽取方式介绍

sqoop 数据抽取(即导入和导出,抽取的双方是相对的)的方式有以下两种

① Sqoop API(使用较多)

数据的格式支持比较少,数据允许覆盖,不要求源表和目标表字段相同 (字段名称和个数都可以不相同) ,它抽取的方式是将字段按顺序插入,不够的字段为 Null

② HCatalog API

支持的数据格式比较多(RCFile、 ORCFile、 CSV、 JSON、SequenceFile),数据不允许覆盖,只能追加,字段个数可以不相同,但是字段名必须相同,否则会报错 NullPointerException

数据抽取命令类型

① 数据导入(import)

1. 关系型数据库导入数据到 HDFS
2. 关系型数据库导入数据到 HIVE

② 数据导出(export)

1. HIVE 导出数据到关系型数据库

数据库连接相关参数

参数说明
–connect连接关系型数据库的URL
–help打印帮助信息
–driverJDBC 的 driver class
–password连接数据库的密码
–username连接数据库的用户名
–verbose在控制台打印出详细信息

import 相关参数

参数说明
–enclosed-by给字段值前加上指定的字符
–escaped-by对字段中的双引号加转义符
–fields-terminated-by设定每个字段是以什么符号作为结束,默认为逗号
–lines-terminated-by设定每行记录之间的分隔符,默认是 \n
–mysql-delimitersMysql默认的分隔符设置,字段之间以逗号分隔,行之间以\n分隔,默认转义符是\,字段值以单引号包裹。
–optionally-enclosed-by给带有双引号或单引号的字段值前后加上指定字符。
-m指定并行处理的MapReduce任务数量。 -m不为1时,需要用split-by指定分片字段进行并行导入,尽量指定int型。
–split-by id如果指定-split by, 必须使用$CONDITIONS关键字, 双引号的查询语句还要加\
–query或–e将查询结果的数据导入,使用时必须伴随参–target-dir,–hcatalog-table,如果查询中有where条件,则条件后必须加上CONDITIONS关键字。 如果使用双引号包含sql,则CONDITIONS前要加上\以完成转义:$CONDITIONS

export 相关参数

参数说明
–input-enclosed-by对字段值前后加上指定字符
–input-escaped-by对含有转移符的字段做转义处理
–input-fields-terminated-by字段之间的分隔符
–input-lines-terminated-by行之间的分隔符
–input-optionally-enclosed-by给带有双引号或单引号的字段前后加上指定字符

hive 相关参数

参数说明
–hive-delims-replacement用自定义的字符串替换掉数据中的 \r\n\013 \010 等字符
–hive-drop-import-delims在导入数据到hive时,去掉数据中的 \r\n\013\010 这样的字符
–map-column-hive生成hive表时,可以更改生成字段的数据类型
–hive-partition-key创建分区,后面直接跟分区名,分区字段的默认类型为 string
–hive-partition-value导入数据时,指定某个分区的值
hive 的安装目录,可以通过该参数覆盖之前默认配置的目录
–hive-import将数据从关系数据库中导入到hive表中
–hive-overwrite覆盖掉在hive表中已经存在的数据
–create-hive-table默认是false,即,如果目标表已经存在了,那么创建任务失败
–hive-table后面接要创建的 hive 表,默认使用 mysql 的表名
–table指定关系数据库的表名

从关系型数据库导入数据到 hive

① 全量导入

# 从 mysql 的 test.teacher 表中导入数据到 hive 的 ods.teacher 表中
# 全量覆盖
# 字段分隔符为 ',' 号
# MapReduce 任务数量为 1
sqoop import \
--connect jdbc:mysql://117.125.88.163:3306/test \
--username root \
--password 123abc \
--table teacher \
--hive-table ods.teacher \
--hive-import \
--hive-overwrite \
--fields-terminated-by ',' \
-m 1

② 增量导入

通过 sql 语句 + where 条件 来控制数据的增量

# where 后面有条件
sqoop import \
--connect jdbc:mysql://117.125.88.163:3306/test \
--username root \
--password 123abc \
--query "select * from emp where id > 1203 and  \$CONDITIONS" \
--fields-terminated-by '\t' \
--hcatalog-database sqooptohive \
--hcatalog-table emp \
-m 1

# where 没有条件
sqoop import \
--connect jdbc:mysql://117.125.88.163:3306/test \
--username root \
--password 123abc \
--query "select * from emp where \$CONDITIONS" \
--fields-terminated-by '\t' \
--hcatalog-database sqooptohive \
--hcatalog-table emp \
-m 1
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-08-31 15:30:56  更:2021-08-31 15:31:23 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 16:37:24-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码