IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> HA高可用+hive+hbase+sqoop+kafka+flume+spark安装部署 -> 正文阅读

[大数据]HA高可用+hive+hbase+sqoop+kafka+flume+spark安装部署

目录

前言

资料

HA高可用部署

Hive安装部署

Hbase安装部署

sqoop安装部署

解压安装包

修改配置文件

环境变量

?sqoop-env.sh

拷贝JDBC驱动

测试Sqoop是否能够成功连接数据库

kafka安装部署

解压安装包

?环境变量

配置文件

创建logs文件夹

zookeeper.properties

server.properties

?启动集群

验证

关闭集群

flume安装部署

解压安装包

?配置环境变量

flume-env.sh

报错

配置flume与kafka连接

踩坑

创建目录

创建脚本

在kafka节点创建topic

??打开console

启动测试

执行脚本

在kafka中查看

spark安装部署


前言

备战2021 年“湖北省工匠杯”技能大赛——大数据技术应用竞赛,附上资料链接,若有错误之处请指正。相关文章在博客都有写到,大家可以参考参考。

资料

链接:https://pan.baidu.com/s/162xqYRVSJMy_cKVlWT4wjQ?
提取码:yikm?

HA高可用部署

请移步HA高可用搭建,参考文章完成HA高可用部署。

Hive安装部署

请移步构建数据仓库赛题解析,参考文章完成Hive安装部署。

Hbase安装部署

请移步HBASE安装,参考文章完成Hbase安装部署。

需注意:hbase-site.xml文件

?master:9000应该改为mycluster

sqoop安装部署

解压安装包

mkdir /usr/sqoop
tar -zxvf /usr/package/sqoop-1.4.7.bin.tar.gz -C /usr/sqoop/

修改配置文件

环境变量

vim /etc/profile

添加:

#sqoop
export SQOOP_HOME=/usr/sqoop/sqoop-1.4.7.bin
export PATH=$PATH:$SQOOP_HOME/bin

?生效环境变量

source /etc/profile

查看

sqoop version

?sqoop-env.sh

cd /usr/sqoop/sqoop-1.4.7.bin/conf/
mv sqoop-env-template.sh sqoop-env.sh 
echo "export HADOOP_COMMON_HOME=/usr/hadoop/hadoop-2.6.0
export HADOOP_MAPRED_HOME=/usr/hadoop/hadoop-2.6.0
export HIVE_HOME=/usr/hive/apache-hive-1.1.0-bin
export ZOOKEEPER_HOME=/usr/zookeeper/zookeeper-3.4.5
export ZOOCFGDIR=/usr/zookeeper/zookeeper-3.4.5" >> sqoop-env.sh
cat sqoop-env.sh

拷贝JDBC驱动

cp /usr/package/mysql-connector-java-5.1.47-bin.jar /usr/sqoop/sqoop-1.4.7.bin/lib/

测试Sqoop是否能够成功连接数据库

我的集群是slave2作为存储数据库的。

sqoop list-databases --connect jdbc:mysql://slave2:3306/ --username root --password 123456

kafka安装部署

解压安装包

mkdir /usr/kafka
tar -zxvf /usr/package/kafka_2.11-1.0.0.tgz -C /usr/kafka/

?环境变量

vim /etc/profile

添加 :

#kafka
export KAFKA_HOME=/usr/kafka/kafka_2.11-1.0.0
export PATH=$PATH:$KAFKA_HOME/bin

?生效环境变量

source /etc/profile

配置文件

创建logs文件夹

cd /usr/kafka/kafka_2.11-1.0.0/
mkdir logs

zookeeper.properties

修改dataDir与zookeeper中zoo.cfg一致

cd /usr/kafka/kafka_2.11-1.0.0/config
vim zookeeper.properties

?修改为

dataDir=/usr/zookeeper/zookeeper-3.4.5/zkdata

server.properties

vim server.properties

broker.id修改

master上为0,slave1上为1,slave2上为2

?注:broker.id不得重复

log.dirs修改

?修改为

使能删除topic功能

增加

#使能删除topic功能
delete.topic.enable=true

?配置连接Zookeeper集群地址

?修改为

zookeeper.connect=master:2181,slave1:2181,slave2:2181


启动集群

启动zookeeper

/usr/zookeeper/zookeeper-3.4.5/bin/zkServer.sh start

启动kafka

cd /usr/kafka/kafka_2.11-1.0.0/
bin/kafka-server-start.sh config/server.properties &
jps

验证

仅在master下

查看当前服务器中的所有topic

bin/kafka-topics.sh --zookeeper master:2181 --list

创建topic

bin/kafka-topics.sh --zookeeper master:2181 --create --replication-factor 3 --partitions 1 --topic first

选项说明:
--topic 定义topic名
--replication-factor 定义副本数
--partitions 定义分区数

关闭集群

bin/kafka-server-stop.sh stop
//等待消息弹出停止再输入
jps
/usr/zookeeper/zookeeper-3.4.5/bin/zkServer.sh stop
jps

flume安装部署

解压安装包

mkdir /usr/flume
tar -zxvf /usr/package/apache-flume-1.6.0-bin.tar.gz -C /usr/flume/


配置环境变量

vim /etc/profile

添加:

#flume
export FLUME_HOME=/usr/flume/apache-flume-1.6.0-bin
export FLUME_CONF_DIR=$FLUME_HOME/conf
export PATH=$PATH:$FLUME_HOME/bin


生效环境变量

source /etc/profile

flume-env.sh

cd /usr/flume/apache-flume-1.6.0-bin/conf/
mv flume-env.sh.template flume-env.sh
echo "export JAVA_HOME=/usr/java/jdk1.8.0_171" >> flume-env.sh 
cat flume-env.sh 

查看

flume-ng version

报错

Error: Could not find or load main class org.apache.flume.tools.GetJavaProperty

解决方案

flume-ng脚本问题

解决办法

cd /usr/flume/apache-flume-1.6.0-bin/bin/
vim flume-ng
//在124行增加以下内容
2>/dev/null | grep hbase

?成功解决

配置flume与kafka连接

cd /usr/flume/apache-flume-1.6.0-bin/conf/
echo "#配置flume agent的source、channel、sink
a1.sources = r1
a1.channels = c1
a1.sinks = k1
#配置source
a1.sources.r1.type = exec
a1.sources.r1.command = tail -F /tmp/logs/kafka.log

#配置channel
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

#配置sink
a1.sinks.k1.channel = c1
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink

#配置Kafka的Topic
a1.sinks.k1.kafka.topic = mytest
#配置kafka的broker地址和端口号
a1.sinks.k1.brokerList = matser:9092,slave1:9092,slave2:9092
#配置批量提交的数量
a1.sinks.k1.kafka.flumeBatchSize = 20
a1.sinks.k1.kafka.producer.acks = 1
a1.sinks.k1.kafka.producer.linger.ms = 1
a1.sinks.k1.kafka.producer.compression.type = snappy
#绑定source和sink到channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1" >> kafka.properties

踩坑

报错

(conf-file-poller-0) [ERROR - org.apache.flume.node.AbstractConfigurationProvider.loadSinks(AbstractConfigurationProvider.java:427)] Sink k1 has been removed due to an error during configuration
org.apache.flume.conf.ConfigurationException: brokerList must contain at least one Kafka broker
	at org.apache.flume.sink.kafka.KafkaSinkUtil.addDocumentedKafkaProps(KafkaSinkUtil.java:55)
	at org.apache.flume.sink.kafka.KafkaSinkUtil.getKafkaProperties(KafkaSinkUtil.java:37)
	at org.apache.flume.sink.kafka.KafkaSink.configure(KafkaSink.java:211)
	at org.apache.flume.conf.Configurables.configure(Configurables.java:41)

解决方法

kafka.properties文件中配置
a1.sinks.k1.kafka.bootstrap.servers(1.7+版本的写法)
a1.sinks.k1.brokerList (1.6版本的写法)

创建目录

mkdir -p /tmp/logs
touch /tmp/logs/kafka.log

创建脚本

cd 
vim kafkaoutput.sh


//加入以下内容


#!/bin/bash
for((i=0;i<=1000;i++))
do 
echo "kafka_test-"+$i >> /tmp/logs/kafka.log
done

?脚本赋权

chmod 777 kafkaoutput.sh

在kafka节点创建topic

前提zookpeer,kafka启动

?创建topic

仅在master上

kafka-topics.sh --create --zookeeper master:2181 --replication-factor 3 --partitions 1 --topic mytest

?打开console

kafka-console-consumer.sh --bootstrap-server master:9092,slave1:9092,slave2:9092 --from-beginning --topic mytest

启动测试

flume-ng agent --conf /usr/flume/apache-flume-1.6.0-bin/conf/ --conf-file /usr/flume/apache-flume-1.6.0-bin/conf/kafka.properties -name a1 -Dflume.root.logger=INFO,console

?成功!

执行脚本

sh kafkaoutput.sh

在kafka中查看

cat /tmp/logs/kafka.log

?

spark安装部署

请移步spark安装,参考完成spark安装部署。

全文完,爆肝一天,第一次接触这么多组件部署在集群上,而且还有相互对接配置,不停地报错,排错,总算完成啦!

眼睛疼!!!

接下来一段时间好好准备比赛啦!加油!

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-11-09 19:37:22  更:2021-11-09 19:38:21 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/24 5:03:56-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码