保存成功
订阅成功
保存失败,请重试
提交成功

Java 转 Flink(二)少吃个手抓饼,涨一点知识

¥1.99会员免费看
小红帽

你们再不看我的文章,我就转行做手抓饼了,摊位已看好,欢迎每天早晨来买一个O(∩_∩)O,有没有怜香惜玉的,来一波订阅。

上篇文章主要介绍 Flink 怎么初始化 StreamExecutionEnvironment,以及怎么 Flink 中使用注解,大家都知道 Flink 和 Spring 结合会有各种问题,如果想看怎么解决 Flink 和 Spring 的结合问题,请移步上一篇文章《Flink 如何基于注解使用 Spring 中的 MongoTemplate、RedisTemplate 等》,同时也是 Flink 入门很好的资料。

本文主要介绍如何在 Flink 中实现通用 Mapper 的集成以及动态多数据源切换,彻底解决 Flink 中的依赖注入,以及各种 DB 连接的问题。本文最后会介绍kafka的一些原理以及 Flink 怎么消费和推送 Kafka。

涨知识的点:

  1. 为什么我们花了一年的时间从 Java 转为 Flink?
  2. Flink操作数据库您还在使用 JDBC 吗?
  3. 骚不骚?Flink 中也可以一个注解搞定动态多数据源切换
  4. 浪不浪?Flink 中实现 JPA 以及 MyBatis 的功能,与数据库交互更简易
  5. Kafka 分区、顺序消费、Ack 机制
  6. Flink 消费和推送 Kakfa

作为 Flink 重要 Source,Kafka 的消费是必须要掌握的知识点,而消费 Kafka 不仅仅几行代码事情,对分区、顺序问题、以及确认机制不了解,会出现数据丢失重复消费的问题,在本文中会做详解。

作为 Flink 重要 Sink,我们如果操作多数据源,全部用 JDBC 的形式,没有好的 ORM 框架,会增加我们很多开发量且不易维护,本文会提供一套基于 MyBatis 的 ORM 框架。

面向对象:Java 程序员、Flink 实时计算工程师

102 人已订阅
会员免费看
¥1.99 原价订阅
关注提示×
扫码关注公众号,获得 Chat 最新进展通知!
入群与作者交流×
扫码后回复关键字 入群
Chat·作者交流群
入群码
该二维码永久有效
严选标准
知道了
Chat 状态详情
开始预订
预订结果公布06月03日

预订达标,作者开始写作

审核未达标,本场 Chat 终止

作者文章审核结果公布06月22日

审核达标,文章发布

审核未达标,本场 Chat 终止

Chat 完结
×
已购列表