Spark开发工程师(大数据开发工程师)
工作地点:南京
发布时间:2017-06-12
职位类别:研发类
招聘人数:2人
职责描述:

1. 实现基于Spark的大数据开发工作;
2. 使用大数据技术解决系统的实时、离线分析以及智能预警、精准推荐。

岗位要求:

1. 精通JVM工作原理,精通分布式系统设计,熟悉Linux/Unix开发环境;
2. 精通hadoop体系架构,有3年大数据开发经验,2年Spark开发经验;
3. 精通scala、Spark Core、Spark Streaming和Spark SQL,精通源代码尤佳;
4. 精通以下一种或多种大数据技术,如flume、Kafka、Hdfs、MR、elastic search等
5. 参与过大型分布式系统的开发、设计工作,有较强的建模、系统设计能力,有过PB级的大数据开发经验;
6. 熟悉常见的数据挖掘算法,并在项目中实际使用过。
7. 具有良好的沟通协作能力,具有较强的分享意愿,对业务有很好的理解能力

未经赛特斯同意,不得转载本网站之所有招聘信息及作品
版权所有 © 赛特斯信息科技股份有限公司 苏ICP备09055205号 2013-2015 上海雍熙