职位详情
高级大数据开发
2.4-3万
广州九路科技有限公司
南京
3-5年
本科
12-03
工作地址

软件大道

职位描述
岗位职责:
要求:金融业务背景,统招本科学历,年龄38岁以内,有丰富的离线和实时项目经验,项目是搭建在阿里云平台上的,对平台搭建能力没有要求,但是业务搭建能力比较重要(PS急招,需要可以年前到岗的同学)
岗位职责:
1.平台设计与开发:
●负责核心数据平台、数据仓库的架构设计与开发工作,确保系统的高性能、高稳定性和高扩展性。
●主导数据需求分析、数据建模、ETL/ELT开发、测试和上线等全流程工作。
●根据数据应用场景进行技术选型,并指导团队成员进行数据开发。
2.技术难题攻关:
●解决海量数据处理、实时计算、数据倾斜等技术难题,持续优化数据任务的性能与资源消耗
●负责关键模块(如实时数据链路、核心数仓模型)的技术攻关,制定解决方案,确保数据项目的顺利交付。
3.数据质量与规范:
●制定并推动团队执行数据开发规范、数据建模规范和数据质量标准。
●组织并执行代码评审(Code Review / SQL Review),保障数据产出的准确性与时效性,提升团队整体开发质量。
4.数据研发效能:
●参与数据开发与发布流程(DataOps)的建设与优化,提升数据开发与发布流程(DataOps)的建设与优化,提升数据测试、部署和监控的自动化水平。
●推动数据开发工具链的完善,提升整体数据研发与交付效率。
5.团队协作与指导:
●指导并帮助初级/中级工程师解决大数据开发中的技术问题,提升团队整体技术水平。
●在项目中起到技术引领作用,促进团队在数据技术领域的协作与进步。
6.新技术研究与应用:
●关注并研究大数据领域的新技术,评估其在业务中的应用价值。
●组织并参与技术分享,推动技术团队在大数据架构上的演进与创新。
任职要求:
1.本科学历,大数据、计算机科学、软件工程或相关领域专业。
2.3-5年以上大数据平台开发经验,有大型互联网公司数据仓库或数据湖建设经验者优先。
3.编程与计算引擎:精通Python、Java或Scala编程语言,深入理解JVM原理;熟练掌握Hadoop生态(HDFS,Yarn,Hive),并精通Spark或Flink中至少一种主流计算引擎。

以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕

立即申请