职位详情
数据工程师(Airflow/Python/ETL)
2.8-3.5万
成都迈思信息技术有限公司
天津
10年以上
本科
10-30
工作地址

天津经济技术开发区内

职位描述
职位:数据工程负责人
经验:9–12年
角色概述
我们正在寻找一位经验丰富的数据工程负责人,以支持我们的平台现代化计划。该人员将与内部团队合作,将应用程序从Cloudera CDH迁移至基于Kubernetes的全球数据平台,并确保高质量数据工程解决方案的及时交付。
主要职责
• 为从Cloudera(Spark、Hive、Kafka、Control-M)到Kubernetes技术栈(Spark 3.5、DBT、Airflow、MinIO/S3、Kafka、Solace)的迁移项目提供技术领导。
• 领导小型团队及内部工程师,完成项目交付物。
• 参与设计、架构讨论以及迁移计划,与内部负责人协作。
• 构建并评审高性能、可用于生产环境的数据管道。
• 确保符合标准、合规性及治理要求。
• 向利益相关者提供状态报告、问题上报及交付跟踪。
• 设计并实施迁移/加速框架,实现端到端自动化迁移。
• 持续优化框架,确保稳定性、可扩展性,并支持多样化的用例和场景。
• 与各类数据应用程序协作,推动并支持迁移流程。
必备技能
• 9–12年数据工程及大数据生态系统相关经验。
• 熟练掌握Spark、Hive、Kafka、Solace等技术的实际应用。
• 具备Kubernetes部署及容器化数据负载的工作经验。
• 精通Python、Scala和/或Java。
• 熟悉编排工具(Airflow、Control-M)及SQL转换框架(优先DBT)。
• 了解对象存储(S3、MinIO)。
• 具备数据湖库格式(Iceberg、Delta Lake、Hudi)的实际操作经验。
• 拥有领导供应商或分布式团队完成企业项目的经验。

以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕

立即申请