众所周知,Apache Flink(以下简称 Flink)最早诞生于欧洲,2014 年由其创始团队捐赠给 Apache 基金会。如同其他诞生之初的项目,它新鲜,它开源,它适应了快速转的世界中更重视的速度与灵活性。
大数据时代对人类的数据驾驭能力提出了新的挑战,Flink 的诞生为企业用户获得更为快速、准确的计算能力提供了前所未有的空间与潜力。作为公认的新一代大数据计算引擎,Flink 究竟以何魅力成为阿里、腾讯、滴滴、美团、字节跳动、Netflix、Lyft 等国内外知名公司建设流计算平台的首选?
听听 Flink 的核心贡献者们怎么说!11 月 28-30 日,Flink Forward Asia 2019,Apache Flink 核心贡献者与业界资深专家带你全方位解锁 Flink 的独特技术魅力。
惊喜环节:ASK ME ANYTHING
提前剧透:大会现场将邀请 Apache Flink 核心贡献者们设置 Ask Me Anything 惊喜环节,Flink SQL、Runtime、Hive 等任何关于 Flink 的技术问题可以现场提问!
Flink 亲爹 Stephan 同学也可能参与现场互动哦,如果你好奇 Flink 的 logo 为什么是小松鼠就可以当面举手提问啦~
核心技术专场部分精彩议题概览
《将 Apache Flink 用作一体化的数据处理平台》
崔星灿,Apache Flink Committer,York University 博士后
作为新一代的流处理引擎,Apache Flink 已经广泛应用于很多实时作业场景中。我们发现它在经过近几个版本的迭代后,已经具备一些成为一体化数据处理平台的潜力,可同时用来处理动态和静态的数据,进行分布式和集中式计算,以及支持作业式和交互式任务等。
本次演讲,我们旨在向大家展示一些探索性质的尝试——将 Apache Flink 用作某一通用数据处理流程的一体化后端平台。具体而言,我们会首先介绍这一通用的数据处理流程,并简要描述它每个阶段的特点。随后,我们会详细解释如何在不触及 Flink 核心的前提下对其进行“塑造”,以满足多样化的数据处理需求。在此期间还会涉及部分对 Flink 运行机制的讲解。最后,基于将 Flink 打造成为一个真正的一体化数据处理平台这一目标,我们将对未来工作进行一些展望。
《Bring Cross DC and Cross Data Source SQL Engine to Apache Flink》
漂移计算 SuperSQL 是腾讯大数据自研的跨数据中心、跨集群、跨数据源的高性能大数据 SQL 引擎,满足对位于不同数据中心/集群的不同类型数据源的数据联邦分析/即时查询的需求。解决大数据中数据孤岛难题,降低数据使用壁垒,提升数据使用效率,最大化数据价值。
在这个演讲中,我们会介绍漂移计算 SuperSQL 项目的细节,包括:
-
漂移计算的背景和定位
-
漂移计算的主要技术挑战
-
漂移计算的整体架构
-
漂移计算的技术细节
-
漂移计算的性能表现
-
未来规划
《New Flink source API: Make it easy》
秦江杰,Apache Flink PMC,Apache Kafka PMC,阿里巴巴高级技术专家
Flink 已经拥有了丰富的 connector 生态,但是要为 Flink 创建一个生产可用的 connector 依然需要考虑包括多并发协同,一致性语义,线程模型和容错等在内的一系列问题,而其中 Source 相对于 Sink 又更为复杂。为了让用户更容易实现高质量的 connector,Flink 社区在 FLIP-27 中引入了一个新的 Flink Source API,旨在帮用户解决上述一系列复杂问题,让用户可以快速编写一个高质量的 connector。本演讲将介绍新的 Flink Source API 的设计思路以及如何利用新的 Source Connector API 快速创建一个生产可用的 Flink source connector。
《深入探索 Flink SQL 流批统一的查询引擎与最佳实践》
伍翀,Apache Flink Committer,阿里巴巴技术专家
李劲松,Apache Beam Committer,阿里巴巴技术专家
Flink SQL 作为 Apache Flink 的核心模块,已经收获了越来越多用户的关注,并且以其易于使用的 API 和高性能的 SQL 引擎,在生产实践中扮演者越来越重要的角色。
该演讲将以最新发布的 Flink SQL 为切入点,分别从流处理和批处理的角度,重点分享 Flink SQL 中核心功能的技术细节和调优经验,听众将收获对 Flink SQL 更深入的理解,以及了解如何对 Flink SQL 作业进行调优。
大会组委会还为使用 Flink、希望深度学习的开发者们精心准备了培训课程。届时,来自阿里巴巴和 Ververica 的 Flink 专家们将带领开发者开展为期一天半的深度学习。
本课程是对想要学习构建流应用程序的 Java 和 Scala 开发人员进行的关于 Apache Flink 的实践介绍。培训将重点介绍分布式数据流、事件时间和状态等核心概念。练习将使您有机会了解以上概念在 API 中是如何被体现的,并了解如何将这些概念组合用以解决实际问题。
说明:不需要 Apache Flink 的相关知识。
本课程是针对 Apache Flink 应用程序的部署和操作相关的实践性介绍。目标受众包括负责部署 Flink 应用程序和维护 Flink 集群的开发人员和运维人员。演示将重点介绍 Flink 运行中涉及的核心概念,以及用于部署、升级和监控 Flink 应用程序的主要工具。
-
介绍流计算和 Apache Flink
-
数据中心里的 Flink
-
分布式架构介绍
-
容器化部署(包括实际操作)
-
状态后端和容错(包括实际操作)
-
升级和状态迁移(包括实际操作)
-
指标(包括实践)
-
容量规划
说明:不需要对 Apache Flink 有先验知识。
Apache Flink 支持 SQL 作为流处理和批处理的统一 API。SQL 可以用于各种各样的场景,并且相比使用 Flink 的底层 API,SQL 将更容易构建和维护。在本次培训中,您将学习到如何充分发挥使用 SQL 来编写 Apache Flink 作业的潜力。我们将研究流式 SQL 的不同案例,包括连接流数据、维表关联、窗口聚合、维护物化视图,以及使用 MATCH RECOGNIZE 子句进行模式匹配(这是 SQL 2016 新提出的标准)。
-
介绍 SQL on Flink
-
使用 SQL 查询动态表
-
连接动态表
-
模式匹配与 match_recognition
-
生态系统&写外部表
说明:不需要 Apache Flink 的先验知识,但是需要基本的 SQL 知识。
在过去的几年中,我们与许多 Flink 用户合作沟通期间了解到许多将流计算作业从早期 PoC 阶段慢慢过渡到生产过程中最常见的挑战。在此次培训中,我们将集中精力介绍这些挑战,并且帮助大家一起消除它。我们将提供一个有用的故障诊断工具集,并介绍例如监控、水印、序列化、状态后端等领域的最佳实践和技巧。在实践课程的间隙中,参与者将有机会使用新学习到的知识来解决一些异常 Flink 作业表现出来的问题。同时,我们也将归纳那些使作业没有进展或吞吐量没有达到预期,或作业延迟的常见原因。
培训系列课程为精品小班教学,数量有限,预约满额将关闭入口,有相关培训需求的同学可尽早预约。详细说明:
如果你也好奇 Flink 未来的主要探索方向,如何利用 Flink 将大数据、算力推到极致,Flink 有哪些新场景、新规划以及最佳实践等话题,来现场吧!相信这群来自一线的技术专家们,一定会刷新你对 Apache Flink 的认知。