负责项目软件的设计和开发,负责Hadoop的开发工作。
参与智能风控建模工作,负责数据分析与处理、数据统计、数据挖掘。
负责系统性能优化,监控和调整集群资源利用率,识别和解决数据处理过程中的性能瓶颈。
岗位要求:
1、能够完成项目相关模块的分析、编码及开发代码的单元测试。
2、深入理解 HDFS(分布式文件系统原理、读写流程、副本机制)、MapReduce(计算模型、Shuffe 过程)、YARN(资源管理、任务调度)的底层原理。
3、熟练使用 Hive(HQL编写与优化)、HBase(表设计、AP!操作)Spark(RDD/DataFrame编程)、Sqoop/Fume(数据同步与采集),了解 FinkKatka 等流处理工具。
4、熟悉 Linux 操作系统(Shel 命令、脚本开发),掌握 SQL,了解分布式数据库原理,会用 Git 进行版本控制。