职位描述:
1.负责Hadoop生态组件(HDFS/YARN/Hive/mpala/Spark/Kafka/HBase等)的部署、调优与运维解决资源调度、存储及计算瓶颈问题:
2.监控集群性能,分析并优化系统稳定性与效率,保障大数据平台高效运行:
3.参与故障排查与性能调优,制定运维规范及自动化解决方案。
任职要求:
1.本科及以上学历,5年以上大数据平台运维经验:
2.精通Hadoop生态组件原理及调优,具备性能瓶颈分析与解决能力:
3.熟悉Linux系统、Shel/Python脚本及运维工具,有自动化运维经验优先。
加分项:熟悉分布式系统原理,具备大规模集群管理经验。