工作职责:
1、负责公司大数据产品Hadoop、Spark、Hbase、Starrocks等的搭建、调优、维护、扩容和升级工作,保证系统的稳定性;
2、负责及时响应生产环境的监控预警、故障及突发情况的定位、分析和解决;
3、深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长;
4、跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。
岗位要求:
1、本科及以上学历,计算机相关专业;
2、2年以上大数据处理经验;
3、熟悉大数据开源技术,精通不少于两项(Hive/Spark /Flink/Hbase/ Flume/Kafka)相关技术;
4、有对Hadoop、Starrocks生态系统故障排除能力;
5、有对Hadoop、Starrocks生态系统进行扩展、调整、优化的能力;
6、掌握Scala/Java/Python/SQL/Shell至少两项开发语言;
7、有Hadoop、Starrocks生态系统运维经验者优先,有阅读源码能力者优先。