职位描述
电力岗位
核心开发:负责基于 Apache Flink 的实时数据仓库、数据 pipelines 的设计、开发和优化,满足低延迟、高准确性需求。
平台建设:参与实时计算平台建设与演进,完善任务管理、监控告警、智能诊断能力,提升平台稳定性与开发效率。
性能优化:深入理解 Flink 引擎,对实时任务进行性能调优,解决资源消耗、反压、数据倾斜、Checkpoint 等问题,保障任务 7x24 小时稳定运行。
技术攻关:研究并引入 Flink 及 Kafka、ClickHouse、Hudi/Iceberg 等生态最新特性,解决精确一次语义、流批一体、维表关联等复杂业务难题。
协作支持:与数据产品经理、算法工程师及业务团队合作,理解需求并提供技术方案,支持业务方使用实时数据。
(三)任职资格要求
学历专业:本科及以上学历,大数据、软件工程、计算机等相关专业
经验要求:3 年及以上大数据开发经验,其中至少 1-2 年专注于 Apache Flink 实时计算项目开发经验(岗位需求定为中级,3 年核心领域经验为中级界定必要条件之一)。
技术能力:
掌握 Java 或 Scala 编程语言,具备扎实编码能力和良好编程习惯。
深入理解 Flink 核心概念(Time/Window、State、Checkpoint、Savepoint、Exactly-Once 语义),有丰富的 Flink DataStream API/Table API/SQL 开发调试经验。
熟悉 Kafka、Pulsar 等消息队列及 MySQL、Redis、HBase、ClickHouse 等数据存储的使用与集成。
具备优秀的性能调优和故障排查能力,可独立解决线上反压、数据倾斜、延迟等问题。
优先条件:
有日均千亿级以上 Flink 作业运维和调优经验。
熟悉 Flink on Kubernetes 部署与运维。
了解 Flink CDC 并有实际项目应用经验。
深入理解实时数仓架构,熟悉 Lambda 或 Kappa 架构。
有开源社区贡献经验或对 Flink 底层源码有研究。
国内重点院校研究生,且有 Flink 实时计算、大数据开发相关实习经验(可接受简历,以实际面试情况为准)。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕