一、数据架构与开发
1.负责企业级数据仓库的ETL/ELT流程设计、开发及优化,支撑核心业务数据模型建设
2.使用Kettle等工具实现异构数据源(DB/API/日志文件)的高效清洗、转换与加载
3.编写高性能SQL脚本,进行复杂数据逻辑处理及存储过程开发,确保数据处理时效性与准确性
二、BI系统支撑
1.基于帆软(FineReport)等BI平台开发数据报表及可视化看板,响应业务部门的分析需求
2.设计可配置化报表体系,实现核心业务指标(用户行为/交易/运营)的自动化监控
三、埋点数据体系构建
1.主导用户行为埋点方案设计,制定数据采集规范及报文协议(JSON/ProtoBuf等)
2.协同前后端团队实施埋点代码部署,通过数据验证保障埋点数据质量与一致性
3.构建用户行为分析基础数据层,支撑用户画像、路径分析等深度挖掘场景
四、数据资产治理
1.建立数据血缘追踪机制,监控关键数据流水线健康状态
2.制定数据质量校验规则,定位并解决数据异常问题
必备技能要求
一、岗位技能
▶ 精通SQL编写及性能调优(窗口函数/索引优化)
▶ 熟练使用Kettle/Talend等ETL工具,具备流程调度、错误处理等实战经验
▶ 有BI报表开发全流程经验
▶ 掌握埋点设计方法论,能独立输出包含事件定义、字段规范、测试方案的埋点文档
▶ 了解分布式数据技术栈(Hadoop/Spark/Flink 至少一种)
关键认知
▶ 理解数据分层架构(ODS-DWD-DWS-ADS)及维度建模方法论
▶ 熟悉互联网常用埋点技术方案(前端代码埋点/全埋点/可视化埋点)
▶ 具备业务视角,能将分析需求转化为数据开发解决方案
二、优先考虑条件
1.有用户行为分析系统(如火山/神策)对接经验
2.熟悉Python/Shell脚本开发,具备自动化运维能力
3.主导过数据治理相关项目(元数据/数据质量)
三、团队协作要求
1.与数据产品经理协作完成需求评审与技术方案设计
2.指导初级开发人员解决技术问题
3.撰写清晰的技术文档及操作手册.