职位描述
核心工作职责
平台运维与监控:
负责客户大数据治理平台(包括ETL任务、数据处理模块、数据血缘模块)的日常健康状况监控、巡检和维护。
及时响应并处理平台运行中出现的告警和故障,进行问题排查、定位与解决,保障平台的稳定运行。
配合进行平台的版本升级、补丁更新等变更操作。
数据查询与支持:
响应客户的数据需求,使用 SQL 等工具进行临时性、定制化的数据查询、提取与统计分析。
协助客户理解数据口径,解答关于数据源、数据质量和数据链路的疑问。
整理和归档常见的数据需求,形成知识库,提升支持效率。
轻量级数据开发与对接:
根据客户提出的新需求,进行简单的数据服务开发,例如编写数据提取脚本(Python/Shell)、配置数据同步任务等。
负责新的业务系统或数据应用与数据平台的对接工作,提供技术接口支持,并撰写相关的对接文档。
维护现有的小型数据ETL任务,确保数据流的准确和及时。
客户沟通与协调:
作为客户现场的第一技术接口人,保持与客户的良好沟通,准确理解和传递客户需求。
定期向项目经理和客户汇报平台运行状况和工作进展。
协调内外部资源,共同解决复杂技术问题。
任职要求
【必备条件】
学历背景: 本科及以上学历,计算机、软件、信息管理等相关专业。
SQL能力: 精通 SQL,能够编写复杂查询,有SQL性能优化的经验者优先。这是核心技能。
脚本与编程: 熟练掌握至少一种脚本语言,Python 或 Shell,具备使用脚本进行数据处理和自动化运维的能力。
大数据基础: 熟悉大数据组件,了解Seatunnl、flink、Spark 的基本原理。能够熟练使用SQL进行数据操作。
服务与沟通: 具备极强的客户服务意识和良好的沟通表达能力,能够耐心、清晰地与非技术人员沟通。
问题解决能力: 具备快速响应、独立分析和解决问题的能力,有责任心,抗压能力强。
【加分项】
有数据治理平台(如数据质量、元数据管理、数据安全)的使用或运维经验者优先。
有使用过DolphinScheduler 等任务调度工具的经验。
了解 RESTful API,有简单的接口开发或对接经验(如使用 Flask/FastAPI)。
熟悉 Linux 常用操作命令。
有 BI 工具(如 Tableau, dataease)的使用或对接经验。
有客户现场驻场、技术支持或运维相关工作经验者优先考虑。
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕