1.8-3.5万
北清路2号院-57号楼
岗位定位
· 该岗位面向AI 产品与智能系统的质量保障方向,
· 负责在模型与系统层面建立可验证、可量化、可持续的质量评估与测试体系。
· 岗位关注的不仅是功能是否可用,而是AI 系统在非确定性、数据依赖与复杂交互场景下的稳定性、可靠性与风险可控性
· 需要在模型效果验证、数据质量评估、系统稳定性测试等方面具备系统性测试能力。
· 该角色为AI 研发体系中的关键质量关口岗位,
· 在测试复杂度、评估方法与跨团队协作层面,
· 显著高于传统以功能回归为主的软件测试角色。
岗位职责· 负责 AI 产品与智能系统的测试方案设计与执行,保障功能、性能与稳定性
· 参与 AI 项目的需求评审与技术评审,从测试角度识别风险并提出改进建议
· 针对 AI 模型与 AI 应用设计测试用例,包括功能测试、效果验证与异常场景测试
· 负责 AI 服务接口测试、系统集成测试及回归测试,保障系统整体质量
· 设计并实施 AI 场景下的专项测试,如模型效果测试、数据质量测试、鲁棒性测试
· 参与自动化测试体系建设,提高 AI 产品测试效率与覆盖率
· 跟进并推动缺陷修复,输出测试报告与质量评估结论
· 持续沉淀 AI 测试方法论与测试资产(测试用例、数据集、脚本等)
任职要求基础要求· 本科及以上学历,计算机、软件工程、信息技术、人工智能等相关专业
· 具备 2 年及以上软件测试或质量保障相关经验
· 熟悉软件测试基本理论与流程:
· 测试计划、测试设计、缺陷管理、回归测试
· 熟悉常见测试类型:
· 功能测试、接口测试、系统测试、性能测试
· 熟悉至少一种测试工具或框架:
o Postman / JMeter / Selenium / PyTest 等
AI / 数据相关要求· 对人工智能有基本理解,了解 AI 系统的特点与测试难点
· 理解 AI 模型非确定性特征,能够自主设计效果验证与容错测试方案,
· 熟悉 AI 应用常见测试场景,如:
o 大模型问答准确性与一致性
o 多轮对话稳定性
o 异常输入与安全风险测试
· 能与算法、后端团队协作,参与模型效果评估与问题定位
· 具备基础的数据分析能力,能对测试结果进行统计与分析
加分项· 有大模型(LLM)或智能问答系统测试经验
· 熟悉 AI 模型评估指标(如准确率、召回率、F1、BLEU 等)
· 有 AI 自动化测试、回归评测或对抗测试经验
· 熟悉 Python,具备测试脚本或测试工具开发能力
· 参与过 AI 或测试相关的开源项目、技术分享或方法论建设
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕