职位描述
• 负责大模型在长文档写作、知识库构建、智能体(Agent)应用开发等场景的算法设计与实现,涵盖自然语言处理(NLP)、多模态交互、MCP、检索增强生成(RAG)等技术方向。
• 开发基于人类反馈强化学习(RLHF)的模型优化系统,提升模型在复杂任务中的准确性和可控性。
• 参与领域专用数据的清洗、标注及增强,设计高效的数据处理流程,支撑大模型的增量训练与指令微调(SFT)。
• 探索模型压缩(如LoRA)、量化、蒸馏等技术,实现轻量化部署。
• 研发多模态大模型(文本、图像、语音),探索跨模态特征对齐、zero-shot感知应用等技术,推动多模态内容理解与生成能力的落地应用。
• 优化大模型在GPU/边缘设备上的推理性能,熟悉Vllm、TVM、Triton等工具链,实现低延迟、高吞吐的端到端部署。
任职要求:
• 计算机科学、人工智能、电子工程、数学等相关专业硕士/博士学历。
• 熟练掌握Python/C++,熟悉PyTorch/Mindspore框架,具备扎实的算法实现能力。
• 深入理解Transformer架构及大模型训练技术(预训练、微调、RLHF),有LLaMA、Qwen、DeepSeek等开源模型实践者优先。
• 熟悉多模态模型(如CLIP、Stable Diffusion)或强化学习算法,具备跨模态任务(如视觉-文本对齐)项目经验。
• 了解推理加速技术(算子融合、量化编译),有CUDA优化或分布式训练经验者优先。
• 在NeurIPS、ICML、CVPR、ACL等顶会发表论文,或参与过Kaggle、ACM竞赛并获奖者优先。
• 具备开源项目贡献经验(如Hugging Face、LangChain)或大厂实习经历者优先。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕