岗位职责:
1. 负责数据仓库脚本任务及数据的搬迁工作,确保最终数据完整性和一致性。
2. 使用 Hive SQL 进行数据查询操作,基于 Hadoop 大数据组件完成数据脚本部署、验证,编写和维护数据搬迁相关的操作文档
3. 与业务团队和开发团队协作,确保数据搬迁项目按时交付。
4.同时负责搬迁工具的用户支持、问题排查和系统运维等工作,沉淀工具手册,支持用户完成搬迁项目。
岗位要求:
1. 数据仓库库:熟悉数据仓库的设计、建模和优化,熟悉 ETL 流程。
2. 大数据组件:熟悉 Hadoop 生态系统(如 HDFS、YARN),了解 Spark、HBase、Kafka、Flink、ES、ClickHouse 等大数据组件的使用。
2年以上年大数据相关工作经验,具备数据仓库、数据开发能力。
3. 有大型数据仓库迁移项目经验者优先
4. 编程语言:精通 Hive SQL,能够编写复杂的查询语句;有一定 Python、Java 或 Scala 等编程语言的基础。