职责:1. 参与数据仓库数据模型设计和开发,ETL相关的Python和SQL开发,以及开发文档的编写。2. 参与流计算/消息队列/及其他Java数据处理等方面的开发工作。3.参与大数据平台的运维和优化工作,包括数据仓库数据模型维护和优化,ETL相关脚本运维和优化,数据接口的运维和优化,BI报表的运维和优化,以及开发文档的完善优化工作岗位要求:1、本科及以上学历,计算机相关专业优先,具有两年以上的数据仓库、ETL、数据库开发等相关项目经验者优先;2、熟练Oracle、Mysql、SQLserver、PostgreSQL其中一种及以上关系型数据库,能编写复杂业务逻辑的SQL脚本; 3、至少具有两年以上Java开发经验,扎实的Java基础,了届SpringCloud/SpringBoot,具备分布式计算开发经验;4、熟悉Kafka的功能和架构,具有Kafka的相关程序的开发经验,有KStrem开发检验者优先;5、熟悉流计算的基本概念,熟悉Kafka KStream/Flink/Spark 任一流式数据处理框架,并具备项目经验;6、具备优秀的数据分析和解决问题的能力,能够把理论成功应用于实践优先;