【工作内容】- 负责设计、开发和维护复杂的数据提取、转换和加载(ETL)流程。- 使用最新的大数据技术和工具,如Hadoop、Spark等,进行数据处理和分析。- 与数据科学家、业务分析师紧密合作,确保数据质量和一致性,以支持决策制定。- 优化现有的ETL流程,提高数据处理效率和性能。- 编写清晰的技术文档,包括数据模型、ETL流程图和操作指南,以便团队成员理解和使用。- 对现有系统进行定期审查,识别潜在问题,并提出解决方案。【任职要求】- 计算机科学或相关领域的本科及以上学历。- 至少3年以上的ETL开发经验,熟悉主流的大数据技术栈。- 熟练掌握SQL,具备使用Python、Java或其他编程语言进行数据处理的能力。- 具备良好的问题解决能力和逻辑思维能力。- 优秀的沟通技巧和团队协作精神,能够有效地与不同背景的同事合作。- 有在大规模分布式系统中处理数据的经验者优先考虑。