本科及以上学历,计算机、数学、统计学等相关专业,5 年以上大数据开发经验。
精通大数据生态技术栈:
分布式计算框架:Spark、Flink、MapReduce 等,具备复杂 ETL 任务开发与调优经验;
调度与监控工具:Airflow、Azkaban、Prometheus 等,能搭建自动化数据处理链路。
熟练掌握Python编程(Pandas、PySpark 等库),具备扎实的 SQL 功底,能独立编写复杂查询与存储过程;熟悉 Shell 脚本开发。
深入理解数据仓库理论,具备数仓建模实战经验,能基于业务需求设计合理的数据模型,保障数据质量与查询效率。
熟悉主流报表平台(Tableau、Power BI、FineReport 等),能基于业务需求设计可视化报表,理解数据可视化的合规性要求。
具备良好的英语读写能力,简单英语口语能力。
具备较强的问题解决能力、逻辑思维能力与团队协作精神,能承受一定的项目压力。