一、岗位职责1、负责大数据运维工具规划、交付方案制定及评审、交付技术保障等。2、负责大数据集群性能调优、现网疑难问题处置。3、负责大数据基础组件社区发展跟进、源码研究,缺陷修复、功能优化等。4、参与大数据PaaS底座平台的设计及研发工作。二、岗位要求1、大学本科及本科以上学历,计算机及相关专业毕业。2、具备三年以上大数据项目工作经验,hadoop集群需具备一定的规模(500+)。3、掌握常用的MPP数据库Click house/Doris等。4、精通大数据相关组件(Hdfs/Hive/HBase/Spark/Flink/Kerberos/Ranger/Kafka/Trino/Flume等)的原理及使用,具备丰富的现网疑难问题处置经验。5、熟悉两个以上大数据组件源码,能够根据源码定位并解决现网问题。6、精通大数据集群性能及资源利用优化,具备运维工具规划能力。7、有hadoop研发经验或开源社区贡献者优先。