岗位职责:1、负责大数据业务集群的运维工作,确保高可用性(包含Hadoop/Hbase/Hive/ Yarn/ Spark/ Storm/ ES等大数据生态圈组件);2、负责集群容量规划、扩容及性能优化;3、参与建设大规模分布式集群的运维、监控和管理平台;4、参与业务架构设计,在设计阶段给出可运维性改进建议;5、深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技术及发展方向;6、参与大数据信创建设和规划,制定大数据信创技术标准、规范,给出可维护性架构及标准改进建议。任职资格:1、计算机相关专业;2、具备5年及以上大数据运维工作经验,熟悉hadoop、hbase、hive、Solr、ES等分布式相关技术,至少掌握java、python、shell中的一种语言,熟悉源码、有大数据信创使用及管理维护经验者优先;3、了解大数据平台应用架构,对大数据方向运维有较高的热情和兴趣,能主动学习相关知识;4、熟悉Linux及麒麟、统信等操作系统的配置、管理及优化,能够独立排查及解决操作系统层面的问题;5、熟悉nginx、zookeeper、kafka、宝兰德、东方通等web应用及中间件的使用和配置;6、具备较强的工作责任感、使命感和执行力,有较强的团队合作精神。