spark.sql.crossJoin.enabled | true | 值为true时,sql进行迪卡尔积join运算 | 1 |
spark.dynamicAllocation.enabled | ture | 值为true时,spark就会启动ExecutorAllocationManager,动态管理执行器; | 2 |
spark.shuffle.service.enabled | ture | 值为true时,spark动态管理shuffle服务,与 ExecutorAllocationManager配合使用 | 2 |
spark.dynamicAllocation.initialExecutors | 数值 | 初始化执行器数量 | 2 |
spark.dynamicAllocation.maxExecutors | 数值 | 最多执行器数量 | 2 |
spark.dynamicAllocation.minExecutors | 数值 | 最少执行器数量 | 2 |
spark.default.parallelism | 数值 | task的并行度,num-executors * executor-cores的2~3倍较为合适;该参数比较重要 | 3 |
spark.sql.adaptive.enabled | true | 默认为false,自适应执行框架的开关 | 4 |
spark.sql.adaptive.skewedJoin.enabled | true | 默认为 false ,倾斜处理开关 | 4 |
spark.driver.extraJavaOptions | -Dlog4j.configuration=file:log4j.properties / -Xss30M | driver 的jvm参数 | 5 |
spark.hadoop.ipc.client.fallback-to-simple-auth-allowed | true | hdfs跨集群数据迁移 | 6 |
spark.shuffle.memoryFraction | 0.3 | 该参数代表了Executor内存中,分配给shuffle read task进行聚合操作的内存比例,默认是20% | 7 |
spark.storage.memoryFraction | 0.5 | 用于设置RDD持久化数据在Executor内存中能占的比例,默认是0.6,,默认Executor 60%的内存,可以用来保存持久化的RDD数据 | 8 |
hive.metastore.client.factory.class | com.amazonaws.glue.catalog.metastore.AWSGlueDataCatalogHiveClientFactory | aws Glue 数据单元管理 | 9 |
hive.exec.dynamici.partition | true | hive写操作,动态分区 | 10 |
hive.exec.dynamic.partition.mode | nonstrict | hive写操作,动态分区 | 10 |
spark.sql.sources.partitionOverwriteMode | dynamic | hive覆盖分区:动态分区 | 10 |