IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> storm简单实例+如何将storm任务迁移至flink处理研究 -> 正文阅读

[大数据]storm简单实例+如何将storm任务迁移至flink处理研究

基础storm程序示例

Storm的流处理主要就是通过Spout和Bolt节点进行处理,可以继承这些类写自己的逻辑

public class FlinkStormDemo {

    public static void main(String[] args) {
        //1.创建执行环境
        LocalCluster stormCluster = new LocalCluster();
        TopologyBuilder builder = new TopologyBuilder();
        //2.创建一个初始的数据源
        builder.setSpout("word", new WordSpout());
        //3.对数据源进行第一次加工
        builder.setBolt("word-1",new WordBolt1(), 1).shuffleGrouping("word");
        //4.对数据源进行第二次加工
        builder.setBolt("word-2",new WordBolt2(), 1).shuffleGrouping("word-1");
        //5.配置一些参数
        Config config = new Config();
        config.setDebug(true);
        //6.提交storm任务并处理
        stormCluster.submitTopology("storm-task", config, builder.createTopology());
    }

    static class WordSpout extends BaseRichSpout {

        private SpoutOutputCollector spoutOutputCollector;

        @Override
        public void open(Map map, TopologyContext topologyContext, SpoutOutputCollector spoutOutputCollector) {
            this.spoutOutputCollector = spoutOutputCollector;
        }

        @Override
        public void nextTuple() {
            try {
                Thread.sleep(10000);
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
            System.out.println("数据初始化中....");
            String initData = "abc";
            spoutOutputCollector.emit(new Values(initData));
        }

        @Override
        public void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) {
            outputFieldsDeclarer.declare(new Fields("word"));
        }
    }

    static class WordBolt1 extends BaseRichBolt {

        private OutputCollector collector;

        @Override
        public void prepare(Map map, TopologyContext topologyContext, OutputCollector outputCollector) {
            this.collector = outputCollector;
        }

        @Override
        public void execute(Tuple tuple) {
            System.out.println("数据第1次处理中....");
            //给上次获取的单词拼接上def
            collector.emit(tuple, new Values(tuple.getString(0) + "def"));
            collector.ack(tuple);
        }

        @Override
        public void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) {
            outputFieldsDeclarer.declare(new Fields("word"));
        }
    }


    static class WordBolt2 extends BaseRichBolt {

        private OutputCollector collector;

        @Override
        public void prepare(Map map, TopologyContext topologyContext, OutputCollector outputCollector) {
            this.collector = outputCollector;
        }

        @Override
        public void execute(Tuple tuple) {
            System.out.println("数据第2次处理中....");
            //输出处理结果
            System.out.println("处理结果:" + tuple.getString(0));
            collector.ack(tuple);
        }

        @Override
        public void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) {

        }
    }
}

执行结果:

在这里插入图片描述

利用flink-storm程序实现类似功能

需要更改flink相关依赖的版本到1.7.0,主要依赖了flink-storm的jar包

	<dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-java</artifactId>
      <version>1.7.0</version>
    </dependency>
    <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-streaming-java_2.11</artifactId>
      <version>1.7.0</version>
    </dependency>
    <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-clients_2.11</artifactId>
      <version>1.7.0</version>
    </dependency>
    <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-storm_2.11</artifactId>
      <version>1.7.0</version>
    </dependency>

只需要修改两处:

LocalCluster替换为FlinkLocalCluster,处理的任务从TopologyBuilder

.createTopology替换为FlinkTopology.createTopology(TopologyBuilder)

在这里插入图片描述

执行结果:
在这里插入图片描述

利用flink程序实现类似功能

利用Kafka发送初始消息“测试数据”。

public class FlinkProducer {

    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        Properties properties = new Properties();
        properties.put("bootstrap.servers", "10.225.173.107:9092,10.225.173.108:9092,10.225.173.109:9092");
        FlinkKafkaProducer<String> flinkKafkaProducer = new FlinkKafkaProducer<>("flink", new SimpleStringSchema(), properties);
        DataStreamSource<String> source = env.fromElements("测试数据");
        source.addSink(flinkKafkaProducer);
        env.execute();
    }

}

接收Kafka的初始消息“测试数据”并加工处理。

public class FlinkConsumer {

    public static void main(String[] args) throws Exception {
        //1.创建执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        //2.配置并创建初始数据源
        Properties properties = new Properties();
        properties.put("bootstrap.servers", "10.225.173.107:9092,10.225.173.108:9092,10.225.173.109:9092");
        FlinkKafkaConsumer<String> flinkKafkaConsumer = new FlinkKafkaConsumer<>("flink", new SimpleStringSchema(), properties);
        DataStreamSource<String> source = env.addSource(flinkKafkaConsumer);
        //3.对数据源进行连续处理
        source.process(new FlinkBolt1()).
               process(new FlinkBolt2()).
               process(new FlinkBolt3());
        //4.执行flink程序
        env.execute();
    }

    static class FlinkBolt1 extends ProcessFunction<String, Object> {

        @Override
        public void open(Configuration parameters) {
            //开始第1次处理....
        }

        @Override
        public void processElement(String s, ProcessFunction<String, Object>.Context context, Collector<Object> collector) throws Exception {
            System.out.println("第1次处理前的值是:" + s);
            s += "abc";
            System.out.println("第1次处理后的值是:" + s);
            collector.collect(s);
        }

        @Override
        public void close() throws Exception {
            //结束第1次处理
        }
    }

    static class FlinkBolt2 extends ProcessFunction<Object, Object> {

        @Override
        public void open(Configuration parameters) {
            //开始第2次处理....
        }

        @Override
        public void processElement(Object s, ProcessFunction<Object, Object>.Context context, Collector<Object> collector) throws Exception {
            s = s.toString();
            System.out.println("第2次处理前的值是:" + s);
            s += "def";
            System.out.println("第2次处理后的值是:" + s);
            collector.collect(s);
        }

        @Override
        public void close() throws Exception {
            //结束第2次处理....
        }
    }

    static class FlinkBolt3 extends ProcessFunction<Object, Object> {

        @Override
        public void open(Configuration parameters) {
            //开始第3次处理....
        }

        @Override
        public void processElement(Object s, ProcessFunction<Object, Object>.Context context, Collector<Object> collector) throws Exception {
            s = s.toString();
            System.out.println("第3次处理前的值是:" + s);
            s += "ghi";
            System.out.println("第3次处理后的值是:" + s);
            collector.collect(s);
        }

        @Override
        public void close() throws Exception {
            //结束第3次处理....
        }
    }

}

处理结果:
在这里插入图片描述

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-03-03 16:21:05  更:2022-03-03 16:23:30 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/24 11:08:07-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码