1、负责大语言模型(LLM)、多模态大模型(如GPT、CLIP、LLaMA等)的领域适配与微调(Fine-tuning);
2、优化模型参数、调整超参数配置,解决模型微调中的过拟合、收敛效率低等问题,确保模型精度与泛化能力;
3、构建高质量领域语料库,设计数据清洗、标注、增强方案,开发自动化数据处理工具提升训练数据质量;
4、探索指令微调(Instruction Tuning)、人类反馈强化学习(RLHF)等技术,提升模型对齐用户需求的能力;
5、设计高效微调方案(Adapter/LoRA/P-tuning),实现分布式训练加速(如DeepSpeed、Megatron-LM),优化GPU资源利用率,平衡模型效果与训练成本;
6、开发模型评估体系,通过Prompt Engineering与数据增强提升泛化能力;
7、探索模型压缩与量化技术,支持边缘端部署需求。