岗位一:需要Flink实时
大专及以上
1、熟悉Hadoop、HBase等分布式计算平台开发,3年以上hadoop使用经验,有大数据应用系统开发经验
2、熟悉Kettle 等ETL 工具的使用和开发;具有一定数据模型和数据架构基础,熟悉hadoop\hive和常用数据库
3、熟悉SQL/HQL,有较好的SQL性能调优经验;熟悉hive sql的开发
4、熟悉ETL设计、调度、监控、算法等,能够熟练的进行事实表、维度表的开发
5、Flink实时等相关经验
岗位二:
熟悉spark、doris、starrocks、数仓建模呀,spark、数仓建模