岗位职责1. 负责基于Spark平台架构的大数据开发、设计和布局;2. 大数据平台部署、实施;3. 大数据平台运行性能、可用性、扩展性等监控与优化。任职要求1. 3年互联网行业开发经验,计算机或相关专业本科以上学历。;2. 熟悉hadoop+hive,spark、slor hive、 elasticsearch等计算框架者优先,对分布式存储和计算原理有较深的理解。 3、具有较强的数据分析、数据挖掘的能力。