职位描述
职位一:
统招计算机专业,1、熟悉Hadoop、Spark等分布式计算平台开发,了解hive sql的开发,有大数据应用系统开发经验 2、熟悉Kettle等ETL工具的使用和开发; 3、熟悉SQL语言,熟练使用MySQL、Oracle等关系型数据库,了解SQL性能调优; 4、熟悉ETL设计、调度、监控、算法等,了解事实表、维度表的开发 5、熟悉clickhouse、dorisDB等分析型数据库的使用
职位二:
"3级: hive + spark + doris/starrock + 建模经验 + 调优
工作经验建议在5~10年"
职位三:
岗位职责:
1、设计数据架构,构建数据资产体系,为数据使用者提供高效的数据解决方案,包括支持BI商业数据分析在各个业务领域中的应用。
2、负责数据底层架构的设计与规划,确保数据系统的高效性和可扩展性;开发和维护数据处理流程,确保数据的准确性和完整;与数据分析师合作,提供数据支持和技术解决方案。
3、负责各类数据体系(财经、营销、用户等)的数仓建设,通过数据+工程化,赋能业务,提供全链路、可分析的数据服务能力;
4、梳理数据领域,数据治理相关模块的功能需求,包括数据质量监控、数据建模、开发规范、资源管理等,推进数据治理工作。
任职资格:
1、第一学历统招本科以上,计算机相关专业,至少3年以上大数据开发经验。
2、丰富的代码开发经验精通SQL语言,以及基础的excel处理
3、具备SQL运行速度调优经验,有成功优化复杂查询(如多表JOIN、子查询、递归查询)的能力
4、 快速理解业务的需求以及业务的核心指标,据此进行数据开发。
5、有责任心、快速学习的能力、沟通积极主动优先。
6、具备优秀的思考和架构能力,能够独立设计代码间和代码内的结构。
职位三:
工作职责:
1、参与全屋数据中心数据的采集、清洗转换和聚合。
2、参与全屋数据中心数据建模,对接业务需求。
岗位要求:
1、熟练使用常用开源大数据产品和云厂商大数据产品。
2、熟练使用SQL及优化,必须有Flink SQL、HiveSQL经验,熟悉常用NoSql数据库。
3、有数据仓库或者海量数据处理经验,能独立进行数据作业调度和SQL调优。
4、有Java、Python编程能力,或者有熟练编写Flink Stream作业能力者优先。
职位四:
岗位职责:
"负责构建数据评测体系,评估数据质量与模型效果,为算法优化提供核心依据。
核心职责: 设计并构建模型评测数据集,执行模型效果评测与分析。
制定数据质量标准,评估标注数据的准确性与一致性。
"
职位要求:
"熟悉数据标注流程与质量管控方法。 了解机器学习基本概念及常用评测指标。 具备良好的逻辑分析和报告撰写能力。 计算机、统计学等相关专业优先。
职位五:
统本计算机优先1.至少 5年以上项目开发经验,具有实时计算项目经验 2. 熟悉Java、SQL编程语言 3 熟悉离线数仓原理 4. 熟悉大数据生态组件基本概念&使用方式, 5 有Flink实时相关经验
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕