职位详情

登录

大数据开发工程师(上海)
8千-1.6万
1人 · 硕士 · 在校生/应届生 · 性别不限2025/04/08发布

上海市

公司信息
新国脉数字文化股份有限公司

国企

该公司所有职位
职位描述
学历要求
硕士研究生及以上学历

专业要求
计算机科学与技术/数据科学与大数据技术/软件工程/数学

岗位职责
1. 设计并搭建高可靠、可扩展的大数据存储与计算平台,包括 Hadoop、Spark、Hive 等大数据组件的配置与优化,确保海量数据的高效存储与快速处理;
2. 负责从多样化的数据源(如大规模日志系统、实时数据流、分布式文件系统等)进行大数据采集,运用 Flume、Kafka 等工具实现数据的稳定收集与实时传输,并进行数据清洗、去重等预处理工作,保障数据的准确性和完整性;
3. 基于 Doris、Starrocks 等大数据处理框架,开发高效的大数据处理算法和程序,完成复杂的数据转换、聚合和分析任务,为数据挖掘和机器学习提供高质量的数据支持;
4. 参与大数据仓库的设计与建设,具备丰富的 ETL 开发经验,构建适用于大数据环境的数据模型,如维度模型、Lambda 架构等,优化数据存储结构,提升数据查询和分析效率;
5. 熟练运用 Hive SQL、Spark SQL 等大数据查询语言,进行海量数据的查询与分析,协助业务部门解决复杂的数据问题,为业务决策提供有力的数据依据;
6. 对大数据开发流程和系统性能进行持续优化,通过技术手段(如资源调度优化、算法优化等)提升大数据平台的整体处理能力和响应速度,同时负责平台的日常运维,及时处理大数据相关的故障和异常;
7. 与数据分析师、数据科学家以及业务团队紧密合作,深入理解业务需求,将业务问题转化为大数据技术解决方案,推动大数据在业务中的深度应用和创新;
8. 领导交办的其他工作。

应聘资格要求
1. 硕士研究生及以上学历,硕士及以上学位,计算机科学、软件工程、数学、统计学等相关专业优先;
2. 具备一定大数据开发相关实习经验,有完整的大数据项目开发经验,熟悉大数据开发的全生命周期;
3. 精通 Hadoop 生态系统,包括 HDFS、MapReduce、Hive、YARN 等组件的原理和应用,能够熟练进行集群的部署、配置和维护;
4. 熟练掌握 Spark 框架,包括 Spark Core、Spark SQL、Spark Streaming 等模块,具备基于 Spark 进行大规模数据处理和分析的能力;
5. 熟悉至少一种大数据采集工具(如 Flume、Kafka 等)和大数据查询语言(如 Hive SQL、Spark SQL),能够编写高效的大数据查询和处理语句;
6. 掌握数据建模的基本方法,能够根据业务需求设计合理的大数据模型,具备良好的数据架构设计能力;
7. 熟练掌握至少一种编程语言(如 Java、Scala、Python 等),具备良好的编程习惯和代码质量意识;
8. 具备较强的问题解决能力和数据分析能力,能够快速定位和解决大数据相关的技术难题,善于从海量数据中发现问题和规律;
9. 有良好的沟通能力和团队协作精神,能够与不同部门的人员进行有效的沟通和协作,共同推动大数据项目的实施;
10. 对大数据领域的新技术和新趋势有强烈的学习兴趣和探索精神,能够不断跟进并应用到实际工作中。

相关职位
IT校招-数据开发1-1.4万
汽车售后诊断数据开发工程师1-1.6万
带薪年假节假日福利
初级数据开发工程师1.2-1.6万
五险一金带薪年假绩效奖金
上海证券-数据开发岗1-1.4万
大数据工程师9千-1.7万
双休法定节假日
查看所有职位
51米多多提醒你:在招聘、录用期间要求你支付费用的行为都必须提高警惕。 以招聘为名的培训、招生,许诺推荐其他工作机会,甚至提供培训贷款,或者支付体检 、服装、押金和培训等费用后才能录用工作的,都属于违法行为,应当提高警惕。一经发现,请立即举报,并向当地公安机关报案。

举报

招聘信息 > 上海招聘 > 后端开发招聘 > 上海数据开发招聘

收藏

热门职位热门城市周边城市