1、数据库连接常用参数
1–connect | 连接关系型数据库的URL |
---|
2–password | 连接数据库的密码 | 3–username | 连接数据库的用户名 | 4–connection-manager | 指定要使用的连接管理类 | 5–driverHadoop | 根目录 | 6–help | 打印帮助信息 | 7–verbose | 在控制台打印出详细信息 |
2、导入工具import–常用参数
1–enclosed-by | 给字段值前加上指定的字符 |
---|
2–escaped-by | 对字段中的双引号加转义符 | 3–fields-terminated-by | 设定每个字段是以什么符号作为结束,默认为逗号 | 4–lines-terminated-by | 设定每行记录之间的分隔符,默认是\n | 5–mysql-delimitersMysql | 默认的分隔符设置,字段之间以逗号分隔,行之间以\n分隔,默认转义符是\,字段值以单引号包裹。 | 6–optionally-enclosed-by | 给带有双引号或单引号的字段值前后加上指定字符。 | 7–table | 关系数据库中的哪张表 | 8–m | map的个数 | 9–split-by | 以什么做切分分到map中数据 | 10–target-dir | hdfs上的路径 | 11–delete-target-dir | hdfs上存在路径自动删除 | 12–direct | 直接导入方式,优化mysql速度 |
3、导出工具export–常用参数
1–input-enclosed-by | 对字段值前后加上指定字符 |
---|
2–input-escaped-by | 对含有转移符的字段做转义处理 | 3–input-fields-terminated-by | 字段之间的分隔符 | 4–input-lines-terminated-by | 行之间的分隔符 | 5–input-optionally-enclosed-by | 给带有双引号或单引号的字段前后加上指定字符 |
4、Hive参数–常用
1–hive-import | 将数据从关系数据库中导入到hive表中 |
---|
2–hive-partition-key | 创建分区,后面直接跟分区名,分区字段的默认类型为string | 3–hive-overwrite | 覆盖掉在hive表中已经存在的数据 | 4–create-hive-table | 默认是false,即,如果目标表已经存在了,那么创建任务失败 | 5–hive-table | 后面接要创建的hive表,默认使用MySQL的表名 | 6–hive-database | hive表所在的库 |
5、Hbase参数–常用
1–hbase-table | hbase中的表名 |
---|
2–hbase-create-table | | 3–hbase-row-key | hbase的row key | 4–column-family | hbase表的列簇 |
|