职位详情
高级ETL开发工程师
1.5-1.8万
同方鼎欣科技股份有限公司
广州
5-10年
本科
10-31
工作地址

宝地广场广州海珠区宝地广场广东省广州市海珠区琶洲大道79-87号(磨碟沙地铁站H口步行80米)

职位描述
一、核心职责:

1、实时数据处理:

(1) 使用 Java 编写 Flink 数据处理逻辑,熟练运用 Flink SQL 进行流式数据开发。

(2) 负责处理日均百亿级别的车辆实时数据流(如车辆状态、轨迹、告警等),进行实时清洗、聚合、风控判断。

(3) 将实时计算结果输出到 StarRocks、Redis 等查询引擎和缓存中,保障低延迟数据服务。

2、离线数据仓库:

(1) 使用 Spark 及 Hive SQL 构建和维护车联网离线数据仓库。

(2) 基 Hadoop 生态(包括 Tez 和 MapReduce 引擎)进行大规模数据的ETL开发与性能调优。

(3) 了解presto、impala、hive、yarn等hadoop相关组件

(4) 负责主题域模型设计、数据分层(ODS/DWD/DWS/ADS),支撑复杂的离线指标分析需求。

(5) 有熟练使用调度工具的经验,熟悉各类抽数工具:sqoop、kettle、datax或者其他

3、 数据服务与接口开发:

(1) 使用 Java 开发高性能、高可用的数据查询接口,为前端应用、业务系统提供数据服务。

(2) 整合 MySQL(元数据/业务数据)、Redis(高速缓存)、StarRocks(OLAP查询)等多种数据源,优化查询性能。

4、技术架构与优化:

(1) 负责 Kafka 集群的数据流转架构设计,确保数据管道的稳定性和吞吐量。

(2) 持续监控和优化整个数据链路的性能,解决生产环境中的技术难题。

二、职位要求

【必备条件】

1、经验与技能:

(1) 计算机相关专业本科及以上学历,5年以上大数据开发经验。

(2) 精通 Java 语言,具备良好的编程规范和工程化能力,能够编写高质量、高性能的代码。

(3) 精通 Flink 实时计算框架,具有使用 Java API(非仅SQL)进行复杂业务开发的经验,同时熟练掌握 Flink SQL。

(4) 精通 Spark 和 Hive SQL,有基于 Hadoop(YARN)生态进行大规模离线数据处理的实战经验,了解 Tez 和 MapReduce 引擎原理。

(5) 熟练使用 MySQL、Redis,理解其核心原理与应用场景。

(6) 熟练使用 Kafka,理解其架构、吞吐量与可靠性保障机制。

(7) 具备优秀的 SQL 性能调优能力,能够解决数据倾斜等复杂问题。

2、 项目经验:

(1) 有处理日均 百亿级别 数据量的成功项目经验,具备海量数据下的系统架构设计和性能优化能力。

(2) 具备车联网、物联网或类似高并发、大数据量业务场景的项目背景者优先。

【优先考虑】

3.1 对 iceberg, paimon, doris, starrocks有实际使用和性能优化经验者优先。

3.2 理解 Lambda 或 Kappa 架构,并有实际项目落地经验者优先。

3.3 有大数据平台任务调度系统(如 DolphinScheduler, Airflow)开发或管理经验者优先。

3.4 具备一定的前端知识,能够独立完成简单数据报表开发者优先。

以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕

立即申请