Flink 全网最全资源(视频、博客、PPT、入门、实战、源码解析、问答等持续更新)

2019-06-03
阅读 10 分钟
5.2k
Flink 学习项目代码 [链接] [链接] 麻烦路过的各位亲给这个项目点个 star,太不易了,写了这么多,算是对我坚持下来的一种鼓励吧! 本项目结构 博客 1、Flink 从0到1学习 —— Apache Flink 介绍 2、Flink 从0到1学习 —— Mac 上搭建 Flink 1.6.0 环境并构建运行简单程序入门 3、Flink 从0到1学习 —— Flink 配置文件详解 4...

从0到1学习Flink》—— 你上传的 jar 包藏到哪里去了?

2019-03-19
阅读 5 分钟
5.8k
这个问题其实我自己也有问过,但是自己因为自己的问题没有啥压力也就没深入去思考,现在可是知识星球的付费小伙伴问的,所以自然要逼着自己去深入然后才能给出正确的答案。

Blink 真香

2019-03-01
阅读 3 分钟
2.3k
Blink 开源了有一段时间了,竟然没发现有人写相关的博客,其实我已经在我的知识星球里开始写了,今天来看看 Blink 为什么香? 我们先看看 Blink 黑色版本: 对比下 Flink 版本你就知道黑色版本多好看了。 你上传 jar 包的时候是这样的: 我们来看看 Blink 运行的 job 长啥样? 再来对比一下 Flink 的样子: 查看 Job Tas...

《从0到1学习Flink》—— Flink 读取 Kafka 数据批量写入到 MySQL

2019-02-24
阅读 9 分钟
11k
之前其实在 《从0到1学习Flink》—— 如何自定义 Data Sink ? 文章中其实已经写了点将数据写入到 MySQL,但是一些配置化的东西当时是写死的,不能够通用,最近知识星球里有朋友叫我: 写个从 kafka 中读取数据,经过 Flink 做个预聚合,然后创建数据库连接池将数据批量写入到 mysql 的例子。

《从0到1学习Flink》—— Flink 写入数据到 ElasticSearch

2019-01-18
阅读 9 分钟
9.9k
前言 前面 FLink 的文章中我们已经介绍了说 Flink 已经有很多自带的 Connector。 1、[《从0到1学习Flink》—— Data Source 介绍]([链接] 2、《从0到1学习Flink》—— Data Sink 介绍 其中包括了 Source 和 Sink 的,后面我也讲了下如何自定义自己的 Source 和 Sink。 那么今天要做的事情是啥呢?就是介绍一下 Flink 自带的 ...

《从0到1学习Flink》—— Flink 写入数据到 Kafka

2019-01-17
阅读 4 分钟
4.7k
之前文章 《从0到1学习Flink》—— Flink 写入数据到 ElasticSearch 写了如何将 Kafka 中的数据存储到 ElasticSearch 中,里面其实就已经用到了 Flink 自带的 Kafka source connector(FlinkKafkaConsumer)。存入到 ES 只是其中一种情况,那么如果我们有多个地方需要这份通过 Flink 转换后的数据,是不是又要我们继续写个...

《从0到1学习Flink》—— Flink 项目如何运行?

2019-01-16
阅读 3 分钟
6.2k
之前写了不少 Flink 文章了,也有不少 demo,但是文章写的时候都是在本地直接运行 Main 类的 main 方法,其实 Flink 是支持在 UI 上上传 Flink Job 的 jar 包,然后运行得。最开始在第一篇 《从0到1学习Flink》—— Mac 上搭建 Flink 1.6.0 环境并构建运行简单程序入门 中其实提到过了 Flink 自带的 UI 界面,今天我们就来...

《从0到1学习Flink》—— 介绍Flink中的Stream Windows

2019-01-15
阅读 5 分钟
3.3k
目前有许多数据分析的场景从批处理到流处理的演变, 虽然可以将批处理作为流处理的特殊情况来处理,但是分析无穷集的流数据通常需要思维方式的转变并且具有其自己的术语(例如,“windowing(窗口化)”、“at-least-once(至少一次)”、“exactly-once(只有一次)” )。

《从0到1学习Flink》—— Flink 中几种 Time 详解

2019-01-14
阅读 4 分钟
4k
Flink 在流程序中支持不同的 Time 概念,就比如有 Processing Time、Event Time 和 Ingestion Time。

《从0到1学习Flink》—— Flink Data transformation(转换)

2019-01-13
阅读 7 分钟
4k
前言 在第一篇介绍 Flink 的文章 《《从0到1学习Flink》—— Apache Flink 介绍》 中就说过 Flink 程序的结构 Flink 应用程序结构就是如上图所示: 1、Source: 数据源,Flink 在流处理和批处理上的 source 大概有 4 类:基于本地集合的 source、基于文件的 source、基于网络套接字的 source、自定义的 source。自定义的 so...

《从0到1学习Flink》—— 如何自定义 Data Sink ?

2018-11-13
阅读 8 分钟
3.1k
前篇文章 《从0到1学习Flink》—— Data Sink 介绍 介绍了 Flink Data Sink,也介绍了 Flink 自带的 Sink,那么如何自定义自己的 Sink 呢?这篇文章将写一个 demo 教大家将从 Kafka Source 的数据 Sink 到 MySQL 中去。

《从0到1学习Flink》—— 如何自定义 Data Source ?

2018-11-12
阅读 12 分钟
5.1k
在 《从0到1学习Flink》—— Data Source 介绍 文章中,我给大家介绍了 Flink Data Source 以及简短的介绍了一下自定义 Data Source,这篇文章更详细的介绍下,并写一个 demo 出来让大家理解。

《从0到1学习Flink》—— Data Sink 介绍

2018-11-09
阅读 4 分钟
8.9k
前言 再上一篇文章中 《从0到1学习Flink》—— Data Source 介绍 讲解了 Flink Data Source ,那么这里就来讲讲 Flink Data Sink 吧。 首先 Sink 的意思是: 大概可以猜到了吧!Data sink 有点把数据存储下来(落库)的意思。 如上图,Source 就是数据的来源,中间的 Compute 其实就是 Flink 干的事情,可以做一系列的操作...

《从0到1学习Flink》—— Data Source 介绍

2018-11-08
阅读 5 分钟
5k
Flink 做为一款流式计算框架,它可用来做批处理,即处理静态的数据集、历史的数据集;也可以用来做流处理,即实时的处理些实时数据流,实时的产生数据流结果,只要数据源源不断的过来,Flink 就能够一直计算下去,这个 Data Sources 就是数据的来源地。

《从0到1学习Flink》—— Flink 配置文件详解

2018-11-07
阅读 5 分钟
5k
前面文章我们已经知道 Flink 是什么东西了,安装好 Flink 后,我们再来看下安装路径下的配置文件吧。 安装目录下主要有 flink-conf.yaml 配置、日志的配置文件、zk 配置、Flink SQL Client 配置。 flink-conf.yaml 基础配置 {代码...} 高可用性配置 {代码...} 容错和检查点 配置 {代码...} web 前端配置 {代码...} 高级...

《从0到1学习Flink》—— Mac 上搭建 Flink 1.6.0 环境并构建运行简单程序入门

2018-11-06
阅读 4 分钟
5k
<!-- more --> 准备工作 1、安装查看 Java 的版本号,推荐使用 Java 8。 安装 Flink 2、在 Mac OS X 上安装 Flink 是非常方便的。推荐通过 homebrew 来安装。 {代码...} 3、检查安装: {代码...} 结果: {代码...} 4、启动 flink {代码...} 接着就可以进入 web 页面([链接]:8081/) 查看 demo 1、新建一个 maven 项...

《从0到1学习Flink》—— Apache Flink 介绍

2018-11-05
阅读 7 分钟
11.5k
Flink 是一种流式计算框架,为什么我会接触到 Flink 呢?因为我目前在负责的是监控平台的告警部分,负责采集到的监控数据会直接往 kafka 里塞,然后告警这边需要从 kafka topic 里面实时读取到监控数据,并将读取到的监控数据做一些 聚合/转换/计算 等操作,然后将计算后的结果与告警规则的阈值进行比较,然后做出相应的...