1、本科及以上学历,计算机相关专业,有较好的英文阅读能力,2、具有ODS、DW项目开发经验;3、熟练熟悉Hadoop生态圈(尤其Spark),熟悉Impala sql、hive sql、dws sql、presto等;4、熟悉常用的ETL开发工具,如Datastage、Informatica、Kettle等;5、熟悉作业调度处理、熟悉常用的调度平台,如CA、WM、Control-M等;6、熟悉hadoop生态圈技术;7、熟悉linux系统命令,具备shell脚本编写能力;8、具备较好的学习能力、沟通表达能力、团队合作能力。