职位描述
1、熟练掌握Hadoop生态,包括但不限于Hdfs,Yarn,Hive,Spark,Presto,Flink,Flume,Kafka,Sqoop,Clickhouse等大数据相关技术;
2、熟练掌握Hivesql、Spark SQL、Presto、holo、odps、flink使用及查询优化;
3、熟悉Shell/Python/]ava等编程语言,熟悉spark任务开发,有较好的代码阅读能力;
4、熟悉阿里云大数据产品如Hologres,Dataworks,MaxCompute等;
5、熟悉大数据生态组件如Hadoop,Clickhouse,Flink等;
6、有公有云大数据迁移实施经验,数据校验,任务改造者优先;
7、资历年限:本科5年以上大数据开发经验;
8、工作地点主要集中在江浙沪,能接受出差者优先。
要求:该岗位会有短期3~6个月出差。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕