职位描述
岗位职责:
1. 负责Hadoop集群的部署、配置、优化和维护工作,确保集群的稳定运行。
2. 参与数据仓库的建模、设计和开发,实现数据的高效存储和访问。
3. 使用Hadoop生态系统组件(如HDFS、MapReduce、Hive、Pig、Spark等)进行数据处理和分析。
4. 编写Shell脚本和Python/Java程序,实现数据清洗、转换和加载(ETL)过程。
5. 监控Hadoop集群的性能和健康状况,及时发现并解决问题。
6. 与团队成员合作,完成数据相关项目的开发和实施。
7. 参与技术文档的编写和维护,分享技术经验和最佳实践。
岗位要求:
1. 本科及以上学历,计算机科学、软件工程或相关专业。
2. 熟悉Hadoop生态系统,包括HDFS、MapReduce、Hive、Pig、Spark等组件。
3. 具备Linux操作系统和Shell脚本编程经验。
4. 熟悉至少一种编程语言,如Python或Java。
5. 了解数据仓库和数据挖掘的基本概念,有ETL经验者优先。
6. 具备良好的沟通能力和团队合作精神,能够承受工作压力。
7. 学习能力强,愿意接受新技术挑战。
8. 有Hadoop相关项目经验者优先。
我们提供:
1. 具有竞争力的薪酬待遇和完善的福利体系。
2. 良好的工作环境和积极向上的团队氛围。
3. 丰富的培训机会和广阔的职业发展空间。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕