职位描述
岗位职责:
1.参与大数据基础设施(Hadoop/Spark/Flink)部署、调优及稳定性保障,支持数仓选型与分层设计。维护分布式存储与计算资源调度,解决节点故障、数据倾斜等生产问题。
2.开发数据集成、映射及清洗工具,支持多源工业数据高效接入。
3.优化数据分析工具(如BI看板、调度系统),提升数据开发效率。
4.探索前沿技术(如Lakehouse、流批一体)在工业场景的应用。
任职要求:
1.本科及以上学历,计算机/自动化相关专业,熟悉Linux及Java/Python/Scala至少一门语言。
2.扎实的算法与数据结构基础,了解分布式系统原理(CAP、容错机制)。
3.熟悉Hadoop/Spark生态组件(HDFS/Hive/Kafka),具备SQL优化及ETL开发经验。
4.责任心强,逻辑清晰,能通过日志分析定位分布式系统问题,具备跨团队沟通协作能力。
5.有流批一体式处理经验及Apache Kudu、Paimon使用经验优先考虑。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕