一、岗位职责:1.负责数据集成平台的配置和维护,确保不同数据源之间的数据流动和整合;解决数据集成过程中的技术问题和挑战;2.利用数据开发平台进行数据抽取、转换、加载(ETL)任务的开发和维护;优化数据处理流程,提高数据处理的效率和准确性;3.建立和维护数据集成的元数据,包括数据源信息、数据流向、数据转换规则等,方便数据管理和追溯;4.分析和解决数据集成过程中出现的各种技术问题,如数据冲突、数据丢失、性能低下等,提出有效的解决方案;5.持续优化数据集成和 ETL 流程,引入新的技术和方法,提高数据处理的自动化程度和效率;6.参与数据集成项目的需求分析、设计评审等工作,提供技术建议和方案;7.与数据分析师、数据治理专家等其他团队成员协作,理解业务需求,提供准确、及时的数据支持;8.完成领导交办的其它工作。二、任职资格:1.“双一流”“985工程”“211工程”高等院校毕业者优先考虑,大学本科以上学历,计算机科学、软件工程、数据科学等相关专业;2.具有 3 年以上数据集成、ETL 开发相关工作经验,有大型数据集成项目经验者优先;3.熟练掌握至少一种数据集成工具,如 Informatica、Talend、Kettle 等,或熟悉大数据集成框架,如 Sqoop、Flume 等;4.精通 SQL 语言,有丰富的数据库开发经验,熟悉关系型数据库(如 MySQL、Oracle)和非关系型数据库(如 Hadoop HDFS、Cassandra);掌握数据仓库建模理论和方法,熟悉维度建模、星型模型、雪花模型等;5.熟悉至少一种编程语言,如 Python、Java 等,有良好的编程习惯和代码规范;6.了解大数据处理技术,如 Hadoop、Spark、Flink 等,对数据处理流程有深入理解;7.具备较强的问题分析和解决能力,能够快速定位和解决数据集成过程中的技术问题;8.良好的沟通能力和团队协作精神,能够与不同部门的人员进行有效的沟通和协作。备注:用工形式暂为劳务派遣。