【岗位职责】:
1、模型压缩与加速: 参与大语言模型(LLM)和多模态模型的剪枝、量化(INT4/INT8/FP8)、知识蒸馏等算法研发,致力于在极致资源受限的设备上实现高性能推理。
2、算法-硬件协同优化: 针对特定的NPU架构(如ARM, RISC-V或自研芯片)进行算子(Operator)定制与优化,提升推理引擎(如TensorRT, MNN, NCNN)的执行效率。
3、端侧推理引擎开发: 协助构建高效的端侧推理框架,优化内存管理与计算图调度,降低延迟并减少功耗。
4、数据与评测: 构建端侧场景下的评测数据集,建立完善的模型轻量化效果评估体系。
我们希望你是在读硕士研究生(研二优先),具备以下素质:
1、专业背景: 计算机科学、软件工程、人工智能、电子工程等相关专业。
2、理论基础: 扎实的机器学习、深度学习理论基础,熟悉CNN, Transformer等主流网络结构。
3、编程能力:
4、精通 Python,熟悉 PyTorch 或 TensorFlow 框架。
5、具备优秀的 C/C++ 能力,有 Linux 环境下的开发经验(这是端侧开发的关键)。
6、项目经验: 有以下任意相关项目经验者优先:
7、模型量化(Quantization Aware Training / Post-Training Quantization)实战经验。
8、使用过 ONNX, TensorRT, TVM 等模型转换或推理工具。
9、在手机、嵌入式板卡(如Jetson, Raspberry Pi)上部署过深度学习模型。
10、加分项(软性实力)
(1)对 AI 安全(如对抗样本、隐私保护)或后量子密码(PQC)有一定了解(结合公司业务特色)。
(2)熟悉 RISC-V 或 ARM 体系结构,了解 Cache、SIMD 等硬件原理。
(3)在顶级会议(CVPR, ICCV, NeurIPS, ACL等)发表过论文,或在 Kaggle、天池等竞赛中取得优异成绩。
【实习待遇】:
实习补贴1200元/月;最高免租房住学生公寓,免费班车接送,商业保险。