一、岗位职责:
1. 负责大语言模型(LLM)在企业级AI产品中的算法设计、工程实现与落地优化,包括但不限于智能问答、报告生成、指令理解、多轮对话、知识推理等场景;
2. 深入参与大模型算法选型、结构改进、训练策略设计(如课程学习、对比学习、RLHF等),提升模型在垂直领域任务上的性能与鲁棒性;
3. 设计并实现高效Prompt工程体系,包括模板构建、动态Prompt生成、思维链(CoT)、自洽性校验、输出约束控制等,确保模型输出可控、安全、符合业务语义;
4. 构建和优化RAG系统架构,从Embedding模型选型、检索策略设计、上下文注入机制到生成结果融合,全链路提升知识问答准确率;
5. 主导或参与大模型微调项目(LoRA/QLoRA/Adapter/P-Tuning/全参微调),设计损失函数、采样策略、评估指标,解决领域适配、灾难性遗忘、过拟合等问题;
6. 探索大模型压缩、蒸馏、量化、缓存等算法优化技术,平衡模型性能与推理成本,适配边缘或云端部署;
7. 与产品、算法、后端团队协作,将算法能力封装为稳定API或模块,支撑上层应用快速迭代,并持续通过A/B测试、人工评估等方式驱动算法优化;
8. 跟踪大模型前沿技术(如MoE、Agent、Tool Learning、多模态LLM),评估其在安防/安控场景的可行性并推动技术预研与原型验证。
二、任职要求:
1. 计算机、人工智能、机器学习、自动化等相关专业,硕士及以上学历,具有2年以上大模型/NLP/深度学习算法研发经验者优先;
2. 深入理解Transformer架构、注意力机制、位置编码、KV Cache、RoPE等核心组件,能独立推导前向/反向传播过程;
3. 能针对业务问题抽象为算法任务(如分类、生成、排序、检索),设计损失函数、评估指标、训练流程;
4. 精通Prompt Engineering,掌握高级技巧(Few-shot、Self-Ask、ReAct、AutoPrompt等),能设计动态、分层、带约束的Prompt模板体系;
5. 有完整RAG项目经验,熟悉Embedding模型训练/选型(如BGE、E5、Contriever)、向量检索优化(ANN/HNSW)、重排序(Reranker)、上下文压缩等关键技术;
6. 有大模型微调实战经验,熟悉参数高效微调方法(LoRA系列、Adapter、Prefix-Tuning),了解全参微调的数据构建、学习率调度、梯度裁剪等训练技巧;
7. 熟练使用PyTorch + HuggingFace Transformers + DeepSpeed + vLLM 等工具链,具备模型训练、评估、部署全流程经验;
8. 熟悉LangChain / LlamaIndex / DSPy / Guidance / Transformers Agents 等大模型应用框架,能快速构建原型并工程化;
9. 有大模型应用产品化经验者优先。
三、福利待遇:双休、五险一金、绩效奖金、节日福利、项目激励等