一、工作内容:1、负责大数据平台相关集群和数据库的运维和日常操作管理;2、负责hadoop集群的组件HDFS,hive,spark等操作和管理;3、负责数据ETL、数据处理、数据开发等支撑工作;4、负责数据处理程序部署及相关说明编写及上线部署。二、能力要求:1、有高速数据业务经历者优先。2、对数据处理,数据建模,数据分析等有深刻认识和实战经验;3、熟悉java或python语言开发;4、熟悉hadoop/spark/hive等大数据工具,具有hadoop或者spark的开发经验;5、精通SQL/HQL,熟悉常用关系型数据库,非关系性数据库和数据仓库,具有SQL性能优化经验者优先;6、熟悉Linux系统;7、思维敏捷,对新技术敏感,有较强的钻研学习能力;