职位描述
(一) 岗位职责
1)模块开发与功能实现
参与数据中心后台系统的模块开发,包括数据资产管理、任务调度、权限管理等功能的代码编写、单元测试与联调。
负责数据服务的接口开发,基于RESTful/RPC规范实现业务所需的数据查询、统计分析接口,并保障接口的可用性。
参与大数据组件的集成与应用开发,例如基于Kafka实现数据采集、基于ClickHouse实现数据存储与查询。
2)组件运维与常规优化
协助高级工程师完成大数据组件(Kafka、hive、PostgreSQL、/clickhouse)的部署、配置与日常运维。
负责常规的性能优化工作,如SQL查询优化、接口响应速度优化、数据同步效率优化等。
排查并解决开发与测试过程中出现的技术问题,如接口调用异常、数据同步失败等。
3)文档编写与协作落地
编写接口文档、技术设计文档、测试用例等,保障文档的准确性与完整性。
与前端开发、数据分析、运维团队协作,完成功能联调、数据验证、系统上线等工作。
参与代码评审,根据评审意见优化代码质量。
(二) 任职要求
1)硬性技能要求
编程语言与框架:熟练掌握Java基础,能够熟练使用Spring Boot、Spring Cloud等微服务框架进行开发。
大数据组件应用经验
熟练使用Kafka进行消息生产与消费,理解分区、副本等核心概念,能完成常规的消息队列配置与问题排查。
熟练使用hive/spark/PostgreSQL/clickhouse编写高性能SQL,具备索引设计、单表查询优化经验,能处理百万级数据的查询需求。
了解Hadoop、Spark等离线计算框架,具备ETL脚本开发经验者优先。
技术能力:熟悉Linux系统,能使用基本的Shell命令完成文件操作、进程管理;具备基础的数据库设计能力,能根据业务需求设计表结构;具备问题排查能力,能通过日志定位并解决常见的开发问题。
工程化能力:熟悉Git版本控制、Maven/Gradle构建工具,能参与CI/CD流程;具备良好的编码习惯,代码风格规范、可读性强。
2)软技能要求
具备良好的需求理解能力,能快速把握业务需求的核心要点。
具备较强的执行能力,能按时完成分配的开发任务。
具备良好的沟通协作能力,能与团队成员高效配合完成项目。
具备主动学习能力,愿意深入研究大数据组件原理与应用。
(三) 优先录用条件
1)有数据中台/数据中心相关项目开发经验,参与过数据服务或后台功能模块的落地。
2)具备Kafka、hive、spark等组件的常规调优经验,有性能优化案例者优先。
熟悉容器化技术(Docker),具备基本的容器部署经验者优先。
工作地1:云南昆明滇池路云南电网生产基地
工作地2:云南省昆明市盘龙区联盟街道北京路911
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕