岗位职责:1、负责数据治理项目的实施工作,包括主数据、元数据、数据标准、数据质量等相关工作;2、负责数据治理相关的业务交流,完成业务梳理,推进技术方案的实施落地;3、负责实时、离线数据仓库设计、开发,包括数据采集、清洗、结构化,主题、专题库数据模型设计及数据治理活动;4、负责对内及对外提供高质量的数据服务,提升数据质量及数据使用率;5、参与数据治理管理体系规划、建设,标准制定和推广等工作;6、参与制定数据集市规范,ETL规范等技术规范;7、参与数据开发平台的开发及开源平台的二次开发;8、参与数据应用系统需求分析、建模、开发。技能要求:1、全日制本科及以上学历,计算机相关专业;有2年以上数据领域相关工作经验,具备水利行业数据开发经验优先;2、精通数据治理和数据仓库建设方法论,熟悉数据仓库模型设计和数据开发,具备大型数据仓库逻辑模型和物理模型设计和实施经验;3、熟悉基于Hadoop、Flink、Hive等分布式计算平台的数据开发,熟练掌握Flink、Hive、Hbase、Clickhouse的工作原理及应用;4、熟悉日常作业的部署和调度,熟悉ETL开发工具,如DataX、Kettle等,任务调度工具,如azkaban、DolphinScheduler;5、熟悉大数据生态相关技术,具有实际ETL开发经验,精通SQL以及SQL性能调优;6、具有数据思维,对数据敏感,能够从数据层面理解业务和产品的需求,熟悉水利行业数据治理者优先;7、具备良好的逻辑思维和分析能力,具备较强的抽象、概况和总结能力;8、有数据中台开发经验或开源数据框架二次开发经验者优先考虑。