工作职责
1. 负责大数据集群组件搭建与调试;
2. 支撑业务的数据模型建设以及数据指标的计算和分析;
3. 负责数据清洗,ETL,数据处理程序开发;
4. 负责错误日志分析,集群故障修复,数据处理性能优化。
任职资格
1、三年全职数据开发工作经验,精通Hadoop,Kafka,Hive相关大数据组件的搭建与调试,精通Mapreduce,Spark,Streamming程序编写,有亿级数据处理经验者优先;
2、精通JAVA,Scala语言,有着丰富的编程经验,精通python者优先 ;
3、具备良好的沟通能力和团队合作精神,具备较强的逻辑分析能力、优秀的分析问题和解决问题的能力。