岗位职责:1、参与基于Hadoop的大数据平台的研发工作与持续优化工作。2、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。3、利用大数据相关技术实现对数据的分析、挖掘、处理、及数据可视化等相关工作。4、学习和研究新技术以满足系统需求。岗位要求:1、拥有数据处理相关专业背景。2、对互联网产品有见解,关注前沿技术,有较强的学习能力、分析能力和动手能力。3、熟悉常用分布式计算和存储框架,如Hadoop/HDFS/Spark等。4、至少熟悉以下一种大数据技术组件,Hive、Impala、Hbase、Flume、Kafka、Zookeeper、Storm、Flink。熟悉资产管理、资金业务和金融工程相关领域业务者优先。5、个性乐观开朗,沟通能力强,具备良好的团队协作精神,能利用自身技术能力提升团队整体研发效率。6、多份工作经历需最近2份工作均满2年,或最近1份工作经历满3年。仅有一份工作经历的需满两年。工作地点:上海、成都