到岗时间:1个月之内
婚况要求:不限婚况
【职位描述】1、负责大数据中心的数据集群/Hadoop/hive/spark/hbase等运维保障;
2、负责内部大数据自动化运维以及数据化运营平台开发工作;
3、负责Hadoop平台的容量规划、部署、及扩容;
4、负责Hadoop平台各组件服务的监控及故障处理;
5、对Hadoop平台运维不断优化,提升数据产品的质量和响应速度;
6、深入理解数据平台架构,发现并解决重大故障及性能瓶颈,打造一流的数据平台。【任职要求】负责过50台以上的大集群维护工作,擅长运维调优,具有MapReduce、HDFS、Hbase、Spark、Flume、Zookeeper、ES、Kafka等相关技术的相关经验,底层hadoop集群实际搭建及运维经验。1、全日制统招本科及以上学历,计算机或者相关专业优先;
2、三年以上大数据平台的运维经验,至少1年hadoop运维经验,精于容量规划、架构设计、性能优化;
3、具备一定的开发能力,精通一门以上脚语言(shell/perl/python等);
4、对hadoop原理有深刻认识,具备相关产品(MapReduce、HDFS、Hbase、Spark、Flume、Zookeeper、ES、Kafka)的应用经验;
5、精通Hadoop、spark等相关生态圈系统的搭建、管理、配置优化。
求职提醒:求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。