1.计算机相关专业,研究生及以上学历,3年及以上大数据开发工作经验;
2.熟悉大数据技术与工具,特别是hadoop生态系统,对hadoop文件系统、MapReduce、Hive、Spark等有深入的了解和实践经验,有实际大数据项目经验优先;
3.熟悉主流数据库,例如MySQL、Oracle等,能够进行数据建模和SQL查询优化;
4.具备较强的Linux系统运维与部署能力,能够熟练操作Linux命令和脚本编写;
5.具备较强的问题分析和解决能力,能够快速定位和解决系统和应用故障;
6.具有良好的沟通能力、组织能力及团队协作精神,有较强的分析和解决问题的能力。
 岗位职责: 
1.执行大数据平台的设计、搭建和维护工作,确保系统的高可用性和高性能。 
2.开发和实现大数据处理流程,包括数据采集、清洗、转换和存储等各个环节。 
3.负责数据仓库的设计和建设,保证数据的安全性和可靠性。 
4.协助业务团队进行数据分析和挖掘,提供有效的解决方案。 
5.定期检查和维护大数据平台的稳定性,确保云端和本地服务的正常运行。