岗位职责:
1.设计并实现多模态传感器(如摄像头、LiDAR、IMU等)的数据融合算法,提升目标检测、跟踪、场景理解的鲁棒性与精度。
2.构建基于深度学习的多模态感知模型(如BEV融合、时序融合网络),解决遮挡、极端天气、低光照等复杂场景的感知难题。
3.设计多传感器时空标定方案(外参/内参标定、时间同步),确保多模态数据的一致性。
4.跟踪多模态感知领域最新技术(如Occupancy Networks、Unified BEV框架、神经辐射场NeRF等),推动算法在业务场景的迭代创新。
5.部署算法至实际机器人产品,解决工程中的噪声、抖动、资源限制等问题。
任职要求:
1.计算机科学、电子工程、自动化、数学等相关专业,博士研究生学历。
2.熟悉多模态数据(图像、点云、雷达信号、IMU等)特性与融合方法(Kalman滤波、Bayesian融合、深度学习融合)。
3.掌握至少一种主流深度学习框架(PyTorch/TensorFlow),具备多模态模型开发经验(如FusionNet、TransFuser、BEVFormer)。
4.精通多传感器标定(如手眼标定、联合标定)和时序同步技术(硬件触发/PTP同步)。
5.熟练使用C++/Python,熟悉ROS/ROS2、CUDA、TensorRT等工程化工具。有嵌入式平台(如NVIDIA Jetson)部署经验者优先。