工作职责:
1、负责基于Hadoop/Spark生态系统的大数据计算和挖掘研发;
2、基于Flink/SparkStreamming技术进行实时数据处理、特征引擎的开发;
3、负责参与大数据应用需求分析、功能模块详细设计和相关文档的交付;
任职资格:
1、熟悉Hadoop,Spark,HDFS,kafka,Redis,Hive,Hbase,druid等分布式系统框架和工作原理;
2、熟练使用scala,pyhon,java任一语言;
3、熟悉Sparkstreaming,SparkSql,Flink,ApacheBeam、 kerberos、 impala\等组件,熟悉HiveSql等语言,并且能够性能调优;
4、熟悉数据挖掘算法、模型的优先;
5、熟悉金融业务,有银行数据类项目开发经验者优先;
6、学信网可查本科学历,毕业2年及以上