职位详情
大数据全栈开发工程师(AI方向)
2-4万
中电兴发
南京
3-5年
本科
11-20
工作地址

C12国际中心

职位描述

岗位职责:

1. 负责大数据处理 AI Agent 的全栈开发,主导从需求拆解到系统落地的全流程,涵盖 Agent 架构设计、大数据链路整合与大模型应用开发。

2. 搭建 AI Agent 核心框架,实现任务规划、记忆管理、工具调用、多 Agent 协作等核心模块,确保 Agent 能自主理解数据需求并执行处理流程。

3. 融合大数据技术栈与大模型能力:基于 Hadoop、Spark、Flink 等框架构建高效数据底座,通过 LangChain/LlamaIndex 等 Agent 框架对接大模型 API,实现数据处理任务的智能调度与执行。

4. 优化 Agent 的数据处理能力:集成 RAG(检索增强生成)技术提升数据分析准确性,通过 Prompt 工程引导模型生成高效数据处理脚本,结合向量数据库(Milvus/Weaviate)实现知识沉淀与复用。

5. 负责 Agent 系统的后端服务开发、前端可视化界面搭建及运维部署,保障系统高可用性、高并发处理能力及数据安全性。

6. 跟踪大数据与 AI Agent 领域前沿技术,探索强化学习(如 PPO 算法)在 Agent 优化中的应用,推动系统技术架构迭代与性能提升。

其他要求(包括软技能):

1、具备极强的需求转化能力,能将业务痛点转化为 AI Agent 技术方案,在 "完美架构" 与 "快速验证" 间找到平衡,推动项目高效落地。

2、拥有出色的问题拆解与解决能力,能独立排查大数据链路与 Agent 系统的复杂技术问题,具备性能优化的系统性思维。

3、具备产品思维与用户同理心,能从业务用户角度优化 Agent 交互体验,主动提出技术改进建议。

4、强烈的自驱力与学习能力,能快速跟进前沿技术动态,阅读英文技术文档,将新技术转化为项目实践价值。

5、优秀的团队协作与沟通能力,能与产品、算法、运维等跨角色高效协作,清晰阐述技术权衡与方案思路。

6. 有良好的沟通能力和学习驱动力,有很强的责任心和合作精神;

7. 接受3个月左右的出差;

专业素质要求:

1. 大数据核心技术:熟练掌握 Hadoop 生态系统(HDFS、MapReduce、Hive、HBase)及实时计算框架(Spark、Flink),深入理解大数据作业执行原理与性能调优方法,能构建稳定高效的数据处理链路。

2. AI Agent 与大模型技术

•精通 Python 开发,深入掌握至少一种主流 Agent 框架(LangChain、LlamaIndex),能进行框架魔改与定制化开发;

•熟悉主流大模型(GPT 系列、LLaMA、文心一言等)的 API 调用与能力边界,具备扎实的 Prompt 工程经验与模型微调(LoRA/P-tuning)实践能力;

•理解 Agent 核心架构(ReAct、Plan-and-Execute 范式),掌握多 Agent 协作(如 AutoGen、CrewAI)及任务调度技术。

3. 全栈开发能力

•后端:熟悉 FastAPI/Flask/Java,精通 RESTful API、gRPC 设计与实现,掌握 MySQL 查询优化、Redis 高级特性及 Kafka/Pulsar 消息队列的 Exactly-Once 语义实现;

•前端:熟练使用 Vue.js/React.js 框架,结合 ECharts 等工具开发数据可视化界面,熟悉 Webpack、npm 等构建与包管理工具;

•运维:熟悉 Docker、Kubernetes 等云原生技术栈,掌握 CI/CD 流程与分布式系统问题排查方法。

4. 辅助技术工具

•掌握向量数据库(Milvus/Weaviate)、图数据库的应用与优化,具备 RAG 全流程(检索器 / 重排序 / 响应合成)开发与优化经验;

•了解代码解析、语义分析等编译器技术,能实现数据处理脚本的智能生成与优化者优先。

以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕

立即申请