职位描述
岗位内容:
1. 设计、开发和维护Hadoop生态系统中的大数据解决方案。
2. 编写高质量的MapReduce作业、Spark作业或基于Hive的查询语句,以处理PB级别或更多的数据集。
3. 负责管理Hadoop集群和相关的大数据平台组件,确保它们高可用、稳定和安全。
4. 与数据科学家紧密合作,为他们提供有关产生数据洞察力所需的支持。
任职要求:
1. 熟练使用Hadoop生态系统中的至少一种技术(例如HDFS、MapReduce、Hive、Pig、Spark等)。
2. 掌握Java、Scala或Python等编程语言。
3. 了解Linux系统及其命令行工具。
4. 熟悉数据库设计和SQL语言。
5. 具备团队合作和沟通协作能力。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕