一、核心职责:
1. AI模型自身安全:研究并防御针对大语言模型(LLM)的对抗攻击、提示注入、越狱攻击、数据投毒等新型威胁。
2. AI驱动的安全能力:探索利用AI技术提升传统网络安全能力,如利用LLM进行安全日志分析、威胁情报挖掘、自动化漏洞检测或智能SOC。 研究AI在网络钓鱼检测、恶意软件分析、异常流量识别等场景的应用。
3. 端到端风险调研与方案落地:从AI生成、传播到交互的全链路视角,进行系统性安全风险调研,输出风险评估报告与架构建议。
二、职位要求:
必备条件:
1、计算机科学、人工智能、信息安全或相关专业本科及以上学历。
2、熟练掌握Python,熟悉主流深度学习框架(PyTorch/TensorFlow)。
3、对大型语言模型(LLM)和生成式AI有扎实理解和实践经验。
4、具备清晰的逻辑思维、出色的学习能力和独立解决问题的能力。
三、优先条件(满足任意一项或多项):
1、有AI安全项目经验: 如对抗样本生成/防御、模型水印、AIGC检测竞赛经验、红队测试等。
2、有内容安全/风控经验: 在社交、媒体、电商平台从事过文本/图像/视频内容审核、风控策略或算法研发。
3、有网络安全背景: 熟悉常见网络攻击手法,有渗透测试、威胁分析、安全开发经验者。