职位描述
团队介绍:
上海人工智能实验室安全可信团队以Make Safe AI 为核心技术愿景,致力于大模型、具身、智能体及多智能体系统的安全与可信研究,关注模型推理能力与对齐机制的深入理解与优化。我们推动前沿技术在可信推理、对齐方法、攻击与防御、评测体系等方向的创新落地,成果多次发表于顶级学术会议,包括ACL杰出论文、ICLR Oral等。如果你对大模型安全、可信对齐及未来AI能力的潜在风险怀有热情,欢迎加入我们,共同推动从“让AI 变得安全”向“打造安全的AI 转变”,支持人工智能朝着有益、安全、公平方向健康有序发展。
岗位职责:
致力于构建新一代智能系统的核心认知架构,赋予AI系统更强的信息整合、自主知识积累和智能协作进化能力。将认知科学前沿理论与先进工程技术深度融合,打造能够适应多样化应用场景并持续自我优化的智能基础设施。通过突破现有AI系统的认知瓶颈,为构建更具通用性和实用性的人工智能解决方案奠定技术基础。
任职要求:
1,本科及以上学历,计算机或相关专业。
2,精通Python、Go或Java,具备扎实编程功底和良好代码风格;熟练使用云计算平台(AWS、阿里云等)进行模型训练和部署;掌握容器化部署和微服务架构。
3,精通深度学习框架(PyTorch、TensorFlow等)和大模型开发,掌握多模态AI技术,有视觉-语言模型开发经验。
4,有外部记忆机制、RAG系统、向量数据库优化实战经验,开发过统一的文本-图像-音频记忆索引系统,熟悉跨模态检索和相似度计算优化。
5,了解记忆网络、持续学习、元学习等相关算法,以及长上下文模型优化、记忆压缩算法、渐进式遗忘机制的工程实现。
加分项:
1,在相关领域的顶级会议或期刊(如NeurIPS, ICML, ICLR, ACL, EMNLP, NAACL等)以第一作者身份发表过论文者优先。
2,前沿技术领域:有认知架构、具身智能等技术探索经验,了解人类记忆机制:工作记忆、长期记忆、情节记忆、语义记忆等认知理论。
3,热爱技术,是活跃的开源社区贡献者。
4,具备优秀的技术沟通、协调能力和领导力,有技术攻坚经验。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕