1、负责项目软件的设计和开发,负责Hadoop的开发工作。
2、参与智能风控建模工作,负责数据分析与处理、数据统计、数据挖掘。
3、能够完成项目相关模块的分析、编码及开发代码的单元测试。
4、负责系统性能优化,监控和调整集群资源利用率,识别和解决数据处理过程中的性能瓶颈。
职位要求:
1.掌握Spark、Hive、Hadoop等技术并具有相关开发经验。
2.熟悉PostgreSQL、MySQL等关系型数据库,有较强的SQL能力。
3.熟悉主流分布式数据库、缓存、文件系统、消息系统等技术,有linux经验。