大数据组件cdh,spark,oozie等熟练要熟练 大数据简历重点是spark开发和CDH搭建相关经验简历体现大数据平台的搭建经验
1. 日常模块开发工作,理解业务需求,并参与模块的设计及开发;
2. 根据需求完成基于关系型数据库或数据仓库的数据挖掘与分析工作,编写流计算脚本进行数据统计分析;
3. 负责大数据环境的组件管理,指导运维人员进行大数据环境部署和维护;
4. 紧跟前沿技术并定期交流培训,积极尝试新技术在应用上的探索;
任职要求:
1. 具备扎实的计算机理论基础,对数据结构及算法有较强的功底;
2. 熟悉Java,熟悉JVM,具备优秀的系统问题追查和性能调节优化能力,熟悉常见的面向对象设计模式,熟悉springcloud架构体系应用的开发,熟悉mysql数据库的设计和使用,熟悉redis、mq等常用中间件的使用;
3. 熟悉Hadoop,hive,HBase,Kafka,Spark,ES,Flink 等开发技术,熟练掌握ES、hive/HBase、Spark的数据开发应用;
4. 熟练掌握LINUX常规命令与工具,熟悉CDH(Cloudera Distribution Hadoop)平台的搭建和使用者优先;
职位福利:五险一金、餐补、带薪年假