到岗时间:1个月之内
婚况要求:不限婚况
岗位职责:
1、负责业务数据的ETL处理工具开发;
2、负责数据计算作业的开发与优化,为公司数据业务计算提供支持;
3、基于hadoop、hbase、hive、spark、flink等项目进行二次封装开发,为外部业务系统实现上层接入平台;
4、负责大数据集群的运营及部署系统开发。
任职要求:
1、本科及以上学历,计算机、软件、数学或大数据科学相关专业;
2、熟悉linux,精通Java/Scala/Python三种编程语言之一,具有一定的工程开发能力;
3、掌握hadoop、hbase、spark、hive、flink、kafka、presto等大数据常用框架至少一种,有大数据开发经验;
4、熟悉数据仓库模型设计与ETL开发经验 ,掌握常用数据建模方法,具备海量数据加工处理经验;
5、能够对大规模数据处理相关性能问题分析及调优;
6、有hadoop、hbase、spark、hive、flink、kafka、presto、yarn等项目应用及部署操作经验者优先;
7、具备良好的主动工作意识和能力,能主动承担工作压力和自我挑战;
8、喜欢钻研技术,善于学习和运用新知识,具备良好的分析能力及问题处理能力。
更多详情,请浏览厦门人才网(www.xmrc.com.cn)
求职提醒:求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。