职位描述
1、岗位职责
- 负责分布式计算任务的管理与优化,搭建高吞吐量的数据接入、计算、存储及查询全流程服务,保障数据流转高效稳定。
- 设计并开发高质量REST API,支撑回放系统、数据管理平台及报表系统的正常运行,确保接口的高可用与兼容性。
- 负责数据模型的设计与迭代优化,熟练运用SQL与NoSQL数据库,完成与现有Java遗留系统的无缝集成,保障数据互通。
- 基于云平台,利用Docker、Kubernetes完成服务的部署、扩容、监控与运维管理,保障服务集群稳定运行。
- 负责数据pipeline开发,构建并优化多模态传感器数据预处理流水线,提升数据处理效率与质量。
- 优化Data Logger软件,实现摄像头、激光雷达、雷达、GPS/IMU等各类外设传感器数据的高效采集、缓存与初步处理。
- 设计并构建可靠的数据传输解决方案,兼顾在线实时传输与离线批量传输场景,保障数据完整性与传输效率。
- 配合前端团队,构建可交互的数据管理界面,支持数据集、场景的新增、查询、筛选、批量操作及标签管理等功能。
二、任职要求(一)核心经验要求
- 5年以上专业后端开发经验,有大规模数据处理、分布式系统开发相关项目经验者优先。
- 有处理和处置大规模传感器数据或二进制数据格式的相关经验,熟悉常见的传感器数据格式和通信协议者优先。
- 具备集成和维护Java遗留系统的实战经验,能快速适配现有系统架构并完成集成开发。
(二)技术能力要求
- 编程语言:熟练掌握Python或Java/C++及其主流生态(如Spring Boot),具备独立构建复杂应用及生产级代码的能力;同时对另一门语言有实际项目经验(至少参与过1个完整项目)。
- 数据库技术:具备SQL数据库(如MySQL)及NoSQL数据库(如Elastic Search、TDengine、Redis)的实战经验,能熟练进行数据建模、查询优化及性能调优。
- 大数据技术:有Apache Spark、Kafka、Flink、Dask等大数据框架的实战经验,能运用相关技术完成大规模数据的处理、分析与流转。
- 云服务与容器:拥有公有云服务实践经验,熟悉云平台对象存储、文件存储、计算及网络服务;熟练使用Docker、Kubernetes等容器编排平台,具备容器化部署、运维及优化能力。
- 接口与服务:有REST API构建经验,了解gRPC和Protobuf,掌握服务发现、负载均衡等微服务相关技术,能设计高可用的接口服务。
- 系统与硬件交互:具备Linux环境下系统编程和调试能力,有硬件外设交互经验(如通过Ethernet、USB、CAN等接口读取数据)。
- 并发与IO处理:有处理高吞吐量I/O、进程间通信或多线程编程的实战经验,能解决高并发场景下的技术难题。
(三)其他要求
- 具备良好的问题分析与解决能力,责任心强,能独立承担核心模块开发任务。
- 具备良好的沟通协作能力,能配合前端、测试及运维团队完成项目交付,有团队协作开发经验。
- 对新技术敏感,乐于学习和探索,能快速适配业务及技术迭代需求。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕