1) 负责基于 Hadoop、Spark、Flink 等大数据技术栈的数据处理与计算任务开发。2) 设计和实现高效的数据采集、清洗、转换(ETL)流程,确保数据的准确性、一致性和及时性。3) 开发分布式数据处理程序,优化数据计算性能,提升系统吞吐量和响应速度。4) 参与大数据平台的架构设计,支持实时流处理和离线批处理场景。5) 结合业务需求,进行数据分析和挖掘,为决策提供数据支持。6) 负责数据可视化和报表开发,将复杂数据以直观的方式展现给业务团队。7) 优化大数据集群的性能,解决生产环境中的性能瓶颈和故障问题。8) 编写相关技术文档,记录开发过程和解决方案。经验要求:1) 至少 2-3 年以上大数据开发相关工作经验。2) 有实际参与过 Hadoop/Spark/Flink 集群搭建、调优和维护的经验。3) 有实时流处理(如日志分析、用户行为分析)或离线批处理(如报表生成、数据仓库建设)的实际项目经验。4) 有企事业单位大数据开发经验者优先。