职位描述
你将收获:参与构建全球领先的、面向物理世界的AI安全与可信体系;直面多模态时代的新型安全挑战;工作成果直接影响亿级用户产品的安全防线。
岗位职责:
具身智能大模型安全可信技术研究:研究视觉语言行为大模型(VLA)、多模态模型的潜在安全风险(如语义-物理安全断层、长时许任务规划、思维链推理漏洞等);开发针对模型推理、训练阶段的安全可信技术(安全的记忆检索与利用机制、可被验证的思维链推理、防止灾难性遗忘的持续学习安全框架等);探索视觉语言行为模型(VLA)的对抗防御策略与可解释性分析,设计并实现覆盖全链条的动态防御方案(如鲁棒性增强、基于强化学习的安全对齐等);构建并完善VLA模型的可靠性评估体系,确保智能体在复杂、动态和不确定的物理环境中,其行为依然稳定、可预期。
任职要求:
硬性条件:本科及以上学历,计算机科学/人工智能/机器人相关专业;对具身智能有深入理解,熟悉VLA模型架构(如RT-2/Pi0/OpenVLA等)及主流机器人技术栈;具有AI安全领域经验;精通大模型架构(Transformer/BERT/GPT系列),并具备多模态模型实战经验(CLIP/QwenVL系列/InternVL系列等);精通Python,熟悉主流AI框架(PyTorch/TensorFlow/JAX)
专业经验(满足以下一项或多项):
强化学习与对齐: 拥有强化学习微调(RLFT)或偏好对齐的实践经验。
大模型可解释性/鲁棒性: 有针对Transformer架构进行可解释性分析或鲁棒性增强的研究经验。
持续学习: 对持续学习、终生学习等领域有深入研究或实践。
多模态理解与编码: 熟悉多模态数据(视觉、语言、动作等)的编码与融合技术;具有多模态内容场景理解经验。
生成式模型:具备使用扩散模型(Diffusion Models)等先进生成式模型进行策略学习(Policy Learning)或世界建模(World Modeling)的实践经验。
加分项:
在机器人/AI领域的顶级会议(如CoRL, RSS, ICRA, NeurIPS, ICCV, CVPR等)发表过相关论文;有具身智能或机器人领域的安全研究经验。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕