职位描述
岗位7
岗位描述:
排查和解决搬迁工程中遇到的Oncal、运维问题岗位要求:
有一定的大数据相关经验,能够协助排查大数据相关问题熟悉python、shell等其中一门编程语言,具备脚本开发能力理解、沟通能力强,最好有跨团队横向沟通、协作经验
岗位8
最好以前是数仓开发,转型做技术支持
岗位职责:
大型java后端运维背景
负责搬迁工具的用户支持、问题排查和系统运维等工作,沉淀工具手册,支持用户完成搬迁项目
技术要求:
熟悉Java前后端系统的运维工作,能够根据日志和数据库等进行问题的排查和解决"
岗位9
上海市杨浦区民府路 678 号上海新江湾广场 T2B
前一个月,需要驻场在字节办公,地址如上,后面在微创大厦办公或按需去客户方"
岗位描述:
基于现有的数据集成工具,协助业务侧完成任务链路迁移排查和解决搬迁工程中遇到的Oncall、运维问题岗位要求:
·有一定的大数据相关经验,能够协助排查大数据相关问题熟悉python、shell等其中一门编程语言,具备脚本开发能力理解、沟通能力强,最好有跨团队横向沟通、协作经验岗位6
"熟练使用SQL进行数据开发工作,并有一定数据分析能力
熟悉python、shell等其中一门编程语言,具备脚本开发能力
理解、沟通能力强,最好有跨团队横向沟通、协作经验"
岗位4
大数据开发工程师
"数据研发
(NoteBook方向)
互联网数仓技术背景
需要有很强的互联网数仓背景,无需指导能够自己完成复杂问题的解决和跟进。
有数据仓库建设、重构和搬迁项目和方案设计经验(互联网数据搬迁更优)
有复杂类型的数仓任务改造、改写、任务类型转换工作经验
有百亿数据体量、性能优化和质量保障工作经验
熟悉python、shell、java、Pyspark等其中2种脚本开发能力"
岗位1
大数据开发技术支持工程师
岗位:引擎技术支持(oncall)【按照数据开发,但做oncall的事情】
岗位描述:
负责大数据引擎(Spark、flink,hive)产品问题的响应、问题处理与跟踪等技术支持工作
负责产品问题处理后,将问题沉淀到文档能够进行复用
岗位要求:
熟悉Spark,flink以及HIVE产品,有以上产品问题的处理工作经验
熟悉以上产品常见运维手段,具备通过日志分析问题能力(如:sparkUl、log等)
调整:离线和实时,离线这一部分高优,熟悉spark,hive。大数据技术支持
关键词,比如EMR、Spark技术支持方向的,优先参考微软、阿里、华为有类似这种大厂技术支持经验的候选人,对标阿里L2
一个做Flink,一个做Spark技术支持"
岗位5
大数据管理工程师
"业务希望有一定的研发背景,但不要求很高。比如内部有提效工具,做个小机器人应答之类的这种也是ok,做不了也没关系。
管理经验不是那么多,能处理单一项目的管理也可以,但希望还是有数仓项目经验,因为传统行业的话,无法快速适应和接洽
不用实际Coding,但要理解代码可以作各外部团队的协调和沟通
重点是软技能要达标,跨团队协作能力达标
工作预期的话,可能后续要根据团队内部的事情,补很多文档or规范,可能要文档类的归纳汇总能力
灵活度,理解能力以及反应迅速最好,软素质的要求会更高一些~"
岗位2
大数据实时工程师
要求实时经验占比70%左右
岗位职责
1、负责数据仓库脚本任务及数据的迁移工作,确保最终数据完整性和一致性。
2、使用 Hive SQL进行数据查询操作,基于 Hadoop 大数据组件完成数据脚本部署、验证。编写和维护数据搬迁相关的操作文档。
3、与业务团队和开发团队协作,确保数据搬迁项目按时交付。
1、数据仓库技术:熟悉数据仓库的设计、建模和优化,熟悉 ETL 流程。
2、大数据组件:熟悉Hadoop生态系统(如HDFS、YARN),了解 Spark,HBase、Kafka、Flink、ES、Clickhouse等大数据组件的使用。
3、编程语言:精通 Hive SQL,能够编写复杂的查询语句:有一定 Python、Java或 Scala 等编程语言的基础。
岗位要求:
1、3-5年大数据相关工作经验,具备数据仓库、数据开发能力。
2、有大型数据仓库迁移项目经验者优先。
T2 至少3年以上经验(不算实习),T3-5年经验,正辉筛选简历更倾向于人选同时具备:1、熟悉实时(fink)和商线(spark)经验,(后期招聘全部偏向于离线);2、云平台使用经验(阿里云、腾讯云、百度云等)-如人选非常优秀也不是非常必要条件:3.精通SOL代码(B面必考察)4、沟通逻辑件好:5.传统数仓经验偏多人选不合适(除有加分技能,如:精通]ava和python)-比如钟振凯(精通Spark-python)
岗位3
大数据运维工程师
"岗位职责:
1、负责数据同步任务全生命周期的统一运维,涵盖任务创建、执行监控、问题解决及资源调优等核心环节
2、基于实际运维经验提炼通用规范,逐步降低运维成本
技能要求:
1、熟悉 Spark job 常见运维手段,具备 Spark 日志(如 Spark UI、Log 等)分析能力
2、具备 Python/Shell 编写能力,可以自主开发小型脚本辅助提高工作效率"
以担保或任何理由索取财物,扣押证照,均涉嫌违法,请提高警惕