工作职责:1、AI模型质量保障设计并执行针对机器学习/深度学习模型的测试方案,覆盖模型准确性、鲁棒性、泛化能力及公平性验证开发自动化测试工具链,实现模型训练、推理环节的持续集成/持续测试(CI/CT)2、数据质量管理构建数据质量评估体系,检测训练/测试数据的分布偏移、标注错误及偏差问题设计数据增强策略测试方案,评估增强策略对模型性能的影响3、系统级测试开发搭建AI服务压力测试框架,验证高并发场景下的模型推理性能与资源消耗设计端到端测试场景,验证AI系统与业务逻辑的集成表现4、前沿技术研究跟踪AI测试领域新技术(如对抗样本检测、模型可解释性验证),推动测试方法升级建立AI系统风险评估体系,制定模型迭代的准出标准任职资格:1、硬性条件:计算机/数学/统计学本科以上学历,3年以上AI相关测试经验精通Python,掌握Pytest/Unittest框架,具备TensorFlow/PyTorch模型调试经验深入理解机器学习原理,熟悉常见模型评估指标(如AUC、F1-score、混淆矩阵)熟练使用Prometheus+Grafana监控体系,有MLOps工具链(MLflow/Kubeflow)实战经验2、高阶能力:具备对抗样本生成(Foolbox/ART)或模型可视化(Captum/TF-explain)项目经验熟悉模型压缩技术(量化/剪枝)的测试验证方法有云原生AI服务测试经验(AWS SageMaker/Azure ML)3、素质要求:具备测试左移思维,能在需求阶段识别AI系统潜在风险擅长通过A/B测试设计进行多模型版本效果对比持有ISTQB高级认证或云平台AI专项认证优先