1.本科及以上学历,计算机、数学、统计学或相关专业,有大数据开发经验; 2.熟练掌握SQL,具备扎实的Hive、Spark SQL开发能力,了解数据仓库理论(如Kimball/Inmon); 3.熟悉Hadoop生态组件(HDFS、YARN、Zookeeper),了解Flink或Kafka者优先; 4.熟悉Shell、Python等脚本语言,具备一定的编程能力;
1.参与集团官网、微官方等渠道数清洗、加工工作,支撑业务分析与决策; 2.使用Hive、Spark、Flink等工具实现数据流转与处理; 3.编写SQL等统计脚本 4.协同产品、运营及研发完成数据服务接口开发与数据资产建设; 5.参与数据质量监控与问题排查,保障数据准确性与稳定性; 6.配合项目团队完成数据任务调度与性能调优。