ApacheFlink中Flink数据流编程是怎样的


这期内容当中小编将会给大家带来有关ApacheFlink中Flink数据流编程是怎样的,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。数据源可以通过StreamExecutionEnvironment.addSource(sourceFunction)方式来创建,Flink也提供了一些内置的数据源方便使用,例如readTextFile(path) readFile(),当然,也可以写一个自定义的数据源(可以通过实现SourceFunction方法,但是无法并行执行。或者实现可以并行实现的接口ParallelSourceFunction或者继承RichParallelSourceFunction)首先做一个简单入门,建立一个DataStreamSourceApp这个方法将会从socket中读取数据,因此我们需要在192.168.152.45中开启服务:然后运行DataStreamSourceApp,在服务器上输入:在控制台中也会输出:前面的 341表示的是并行度。可以通过设置setParallelism来操作:这种方式不能并行处理。新建一个自定义数据源这个方法首先定义一个初始值count=1L,然后执行的run方法,方法主要是输出count,并且执行加一操作,当执行cancel方法时结束。调用方法如下:输出结果就是控制台一直输出count值。无法设置并行度,除非设置并行度是1.那么控制台报错:方法的功能跟上面是一样的。main方法如下:可以设置并行度3,输出结果如下:当设置并行度时:那么报错异常:可以设置并行度,输出结果:上述就是小编为大家分享的ApacheFlink中Flink数据流编程是怎样的了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注 香港云主机开发云行业资讯频道。

相关推荐: 最常用的四种数据分析方法

本文主要讲述数据挖掘分析领域中,最常用的四种数据分析方法:描述型分析、诊断型分析、预测型分析和指令型分析。当刚涉足数据挖掘分析领域的分析师被问及,数据挖掘分析人员最重要的能力是什么时,他们给出了五花八门的答案。其实我想告诉他们的是,数据挖掘分析领域最重要的能力…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

(0)
打赏 微信扫一扫 微信扫一扫
上一篇 08/08 16:36
下一篇 08/08 16:36

相关推荐