【岗位职责】
1. 参与企业级数据仓库设计及ETL开发,支持PB级数据处理与建模,覆盖数据采集、清洗、存储到分析的全流程。
2. 协助搭建大数据基础设施(如Hadoop/Spark/Flink集群),优化数据引擎性能(Hive/Spark调优等)。
3. 监控数据质量,定位并解决数据异常问题;与业务部门沟通需求,推动数据服务落地。
4. 参与开发自动化数据工具(如DataX/FlinkCDC),提升数据处理效率。
【岗位要求】
1. 2026年毕业,计算机、大数据、统计学等相关专业本科及以上学历;
2. 技术能力:
- 熟练掌握SQL及至少一门编程语言(Java/Python/Scala);
- 熟悉大数据组件(Hive/Spark/Flink)及数仓建模方法论;
- 了解Linux系统及Shell脚本,具备基础运维能力者优先。
3. 逻辑清晰,责任心强,能快速学习新技术,适应团队协作与跨部门沟通。
4.实习城市:大连