职位职责:1、根据公司数据分析需求进行基于Hadoop 平台的项目开发;2、根据需求进行数据仓库模型设计,进行ETL程序的开发3、负责针对源系统进行数据抽取、处理、分析等相关工作,及项目中涉及到的数据库创建、维护及提供数据接口工作;4、负责设计并优化基于Hive 的数据仓库的建设;5、负责数据库集群管理及性能优化,基于业务需求和系统需求,改进数据库架构,实现数据库集群;6、保证数据库集群的稳定、高效运行; 7、制定数据库备份和恢复策略及工作流程与规范。任职要求:一、学历要求:2025届普通高等院校本科及以上学历,并具有相应学位;二、专业要求:计算机类相关专业优先,专业成绩排名前30%三、专业技能:1、熟悉Hadoop、Hive、impala等分布式计算平台开发,有大数据应用系统开发经验;2、熟悉Kettle 等ETL 工具的使用、开发、开发流程;3、精通SQL/HQL,有较好的SQL性能调优经验;4、熟悉JAVA开发,有分布式开发经验,使用Hive进行过项目开发、或支撑过Hive/Hbase/Impala高并发项目的系统工程师优先;6、熟练掌握常见数据库MySQL、Oracle、DB、SQLServer以及ES、Hbase、HDFS的体系架构和运行原理,拥有部署、调优、监控等日常运维的必要技能(如分库分表、读写分离、数据同步)。