职位描述
【岗位职责】
1.参与离线Spark、实时Flink等大数据任务的开发调优;
2.和开源社区对接,负责数据湖Painmon组件的版本升级、性能优化以及问题解决;
3.利用大数据技术赋能业务,更大的发挥数据价值。
【任职要求】
1.学历要求:2026届普通高等院校硕士研究生及以上学历;
2.专业要求:通信类、电子信息类、计算机类、自动化类相关专业;
3.专业技能:
(1)熟悉Python/Java/Shell等编程语言,熟练使用SQL,有良好的编码习惯,对分布式有深刻理解;
(2)解Windows、Unix、Linux等主流操作系统原理,熟练运用系统层支持应用开发;
(3)了解Hadoop、Hive、Kafka、Spark、Flink、数据湖等大数据组件的基础原理;
(4)对Hadoop、Spark、Flink、Paimon等引擎源代码熟悉优先;
(5)有PB级别大数据开发和性能优化的经验优先。
4.其他能力要求:
(1)具有一定的英语读写能力;
(2)具备良好的沟通表达能力、团队合作精神和学习能力,熟练使用办公软件和通信相关软件。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕