职位详情
数据开发工程师
6000-8000元·13薪
山西联康科技有限公司
太原
3-5年
大专
08-15
工作地址

智创城-A座20楼

职位描述
一、数据架构与开发​
1.负责企业级数据仓库的ETL/ELT流程设计、开发及优化,支撑核心业务数据模型建设
2.使用Kettle等工具实现异构数据源(DB/API/日志文件)的高效清洗、转换与加载
3.编写高性能SQL脚本,进行复杂数据逻辑处理及存储过程开发,确保数据处理时效性与准确性
​二、BI系统支撑​
1.基于帆软(FineReport)等BI平台开发数据报表及可视化看板,响应业务部门的分析需求
2.设计可配置化报表体系,实现核心业务指标(用户行为/交易/运营)的自动化监控
​三、埋点数据体系构建​
1.主导用户行为埋点方案设计,制定数据采集规范及报文协议(JSON/ProtoBuf等)
2.协同前后端团队实施埋点代码部署,通过数据验证保障埋点数据质量与一致性
3.构建用户行为分析基础数据层,支撑用户画像、路径分析等深度挖掘场景
四、​数据资产治理​
1.建立数据血缘追踪机制,监控关键数据流水线健康状态
2.制定数据质量校验规则,定位并解决数据异常问题
必备技能要求​
​一、岗位技能
▶ 精通SQL编写及性能调优(窗口函数/索引优化)
▶ 熟练使用Kettle/Talend等ETL工具,具备流程调度、错误处理等实战经验
▶ 有BI报表开发全流程经验
▶ 掌握埋点设计方法论,能独立输出包含事件定义、字段规范、测试方案的埋点文档
▶ 了解分布式数据技术栈(Hadoop/Spark/Flink 至少一种)
​关键认知​
▶ 理解数据分层架构(ODS-DWD-DWS-ADS)及维度建模方法论
▶ 熟悉互联网常用埋点技术方案(前端代码埋点/全埋点/可视化埋点)
▶ 具备业务视角,能将分析需求转化为数据开发解决方案
​二、优先考虑条件​
1.有用户行为分析系统(如火山/神策)对接经验
2.熟悉Python/Shell脚本开发,具备自动化运维能力
3.主导过数据治理相关项目(元数据/数据质量)
​三、团队协作要求​
1.与数据产品经理协作完成需求评审与技术方案设计
2.指导初级开发人员解决技术问题
3.撰写清晰的技术文档及操作手册.

以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕

立即申请