职位描述
【本科及以上学历,5年及以上工作经验】
岗位内容(真实情况):
1. 基于云原生大数据平台的部署、调优和运维工作
2. 基于电力市场的数仓建设,设计数据分层和数据架构,负责实时/离线任务的开发
岗位要求(合同要求,不需要所有都具备):
1. 本科以上学历,计算机相关专业优先;5年以上相关工作经验,熟悉多个电力行业数据系统业务,有相关信息系统业务设计经验;
2. 熟悉项目管理方法论,有项目需求分析、方案设计、实施等工作经验;
3. 文档组织能力强,熟悉使用word,ppt,excel,visio等工具,熟练使用excel、tableau、python等数据分析工具进行数据分析;
4. 熟悉hadoop、hive、spark、MPP数仓等相关大数据组件;
5. 数据敏感性强,能够独立发现数据中潜在问题、定位并加以解决;
6. 有Axure、墨刀、蓝湖等工具,有一定的系统原型设计能力 ;
7. 有较强的沟通就留和工作协调能力,良好的时间管理能力,具备一定领导力和团队合作精神;
8. 有较强的事业心,进取心和工作责任感,以及良好的心理素质,能够应对工作中的压力和挑战;
9. 熟练掌握常用的前后端开发核心技术和相关标准;精通使用主流框架,并了解框架底层原理;
10. 熟练使用常用主流数据库,具备深厚的SQL功底和SQL调优能力,使用过国产数据库;
11. 熟练使用多种中间件;熟悉至少一个中间件的底层设计原理和集群搭建;
12. 熟练独立搭建自动化测试框架并落地;精通主流性能测试工具的使用,分析性能瓶颈;
13. 了解并有持续集成和工作流技术及经验,有AI、大数据相关技术经验;
14. 熟悉操作系统、应用软件的工作原理,能独立安装、部署和调试,并能熟悉进行调优;
15. 熟悉项目管理流程、具备优秀的沟通和团队协作能力,积极主动、耐心负责,拥有良好的自学能力和抗压性。
16. 具备大数据组件搭建、运维经验
17. 熟悉k8s和docker
18. 熟悉flink、spark、hive等常用大数据计算引擎,并精通其中至少一种
19. 熟悉hadoop等分布式存储,有基于OLAP数据库的开发经验,熟悉Kafka
20. 熟悉dolphinscheduler等大数据调度工具
21. 熟悉Flink CDC、SeaTunnel等至少一种数据同步组件
22. 熟悉python或者java
23. 熟悉linux命令,能够处理常见运维问题
24. 有基于iceberg等湖仓一体经验者优先
25. 有云原生大数据平台部署、运维经验者优先
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕