岗位职责:1.负责大数据平台的整体运维管理,包括监控、部署、配置和优化等工作,确保大数据平台稳定、高效运行。2.对Hadoop生态中的Hive、Kudu、Kafka等组件进行日常维护和故障排查,确保数据处理的准确性和实时性。3.定期对大数据平台进行性能分析和优化,提高系统整体运行效率。4.负责数据抽取、转换、加载(ETL)的开发和实施工作,确保数据源与目标数据仓库之间数据的正确流动和转化。5.对ETL流程进行性能调优,减少数据处理时间,提高数据处理效率。6.使用Vue.js等前端技术栈进行报表的开发,确保报表界面友好、功能丰富且易于使用。7.对报表进行定期维护和更新,确保报表数据的准确性和实时性。8.与业务部门沟通,理解其数据需求,并提供相应的报表解决方案。9.负责管理MySQL和Oracle等数据库系统,包括数据库设计、性能调优、备份恢复等。10.对数据库进行日常监控和维护,确保数据安全性和完整性。11.根据业务需求进行数据库扩容、升级等操作。12.熟悉用友U9 ERP系统的数据处理流程和规范,对U9系统中的数据进行整合和转换。13.根据业务需求对U9系统中的数据进行抽取、分析和展示,为业务决策提供数据支持。14.对U9系统的数据处理性能进行优化,提高数据处理效率。任职要求:1. 计算机或相关专业本科及以上学历,具备3年以上大数据平台运维和开发经验。2. 熟练掌握Hadoop生态中的Hive、Kudu、Kafka等组件的使用和调优方法。3. 熟悉ETL开发流程和相关工具,如kettle、Informatica、DataX等。4. 熟练使用Vue.js等前端技术栈进行报表开发。5. 熟练掌握sportfire、帆软等报表工具的一种。6. 熟悉MySQL和Oracle等关系型数据库系统,具备丰富的数据库管理和性能调优经验。7. 熟悉用友U9 ERP系统的数据处理流程和规范,具备相关项目经验者优先。8. 具备良好的沟通能力和团队协作精神,能够独立思考和解决问题。9. 对新技术和新方法保持敏感,愿意不断学习和提升自己。