职位描述
岗位职责:
1、 模型架构与开发
1)深入研究主流大语言模型架构,如 Transformer 及其变体,依据项目需求进行定制化的架构设计与优化,以提升模型的性能与效率。
负责大语言模型核心代码的编写与调试,确保代码的高质量、高可读性与可维护性,遵循最佳编程实践与代码规范。
训练与优化
2)主导大语言模型的训练工作,涵盖数据并行、模型并行等分布式训练策略的实施,在大规模 GPU 集群上实现高效的模型训练,缩短训练周期。
运用各类优化算法,如 Adam、Adagrad 等,对模型进行超参数调优,通过持续的实验与分析,提升模型的收敛速度与稳定性,确保模型在复杂任务上的准确性与泛化能力。
2、推理与部署
1)针对不同的应用场景与硬件平台,如云端服务器、边缘设备等,进行模型的推理优化,采用模型量化、剪枝等技术,降低模型的内存占用与推理延迟,提升推理效率。
负责将训练好的大语言模型部署到生产环境中,与运维团队协作,构建稳定、可靠的推理服务,保障服务的高可用性与高性能,能够应对高并发请求。
技术协作与创新
2)与算法研究团队紧密合作,将最新的研究成果转化为实际可应用的模型与技术,推动大语言模型技术的创新与发展。
3)与产品团队沟通,理解业务需求,提供技术可行性方案,确保技术与业务的紧密结合,助力产品的功能迭代与优化。
4)关注行业最新技术动态与研究成果,积极引入新的技术与方法,对现有开发流程与技术架构进行持续改进与创新。
任职要求:
1、精通深度学习框架,如 TensorFlow、PyTorch 等,熟练掌握其底层原理与高级应用,能够灵活运用框架实现复杂的模型架构。
2、具备扎实的 Python 编程能力,熟悉常用的数据结构与算法,能够运用 Python 进行高效的数据处理、模型开发与调试。
3、深入理解大语言模型的原理、架构与训练方法,对 Transformer 架构、注意力机制等有深刻认识,有基于开源模型(如 GPT、BERT 等)进行二次开发的经验。
4、熟悉分布式计算框架与技术,如 Horovod、MPI 等,能够在多机多卡环境下进行分布式训练任务的开发与调试。
5、能够独立分析与解决大语言模型开发过程中遇到的各种技术难题,如模型训练不收敛、梯度消失 / 爆炸、内存溢出等问题,具备良好的问题排查与调试能力。
6)对模型性能优化有深入的理解与实践经验,能够通过算法优化、代码优化、硬件资源调优等手段提升模型的训练与推理效率。
计算机科学、软件工程、数学、统计学等相关硕士及以上学历。具有博士学位,或具备实际落地的大语言模型应用开发经验,如智能对话系统、文本生成、知识图谱构建等项目经验者优先。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕