Spark研发工程师
任职要求:
- 计算机、数学或统计学相关专业本科以上学历;
- 2-3年以上分布式系统研发工作;
- 精通C++/Java/Scala程序开发(至少一种),熟悉Linux/Unix开发环境;
- 有分布式系统理论基础和实践经验,熟悉Map-Rduce/实时计算等分布式计算技术,2年以上大规模分布式程序开发的项目经验;
- 熟悉hadoop/hbase/spark/storm等至少一种分布式系统,有分布式机器学习算法开发经验者优先;
- 有良好的团队合作意识,沟通表达能力和综合协调能力;
- 熟悉常用开源分布式系统,Hadoop/Hive/Spark/Yarn,精通源代码尤佳
- 熟悉数据仓库原理,熟悉SQL语言,熟悉 Spark SQL 源码,可进行 UDF 函数开发
- 具有良好的沟通协作能力,具有较强的分享意愿,对业务有很好的理解能力
- 技术卓越者 可放宽待遇
薪资待遇:25K-35K
地点:北京北苑路北
简历投递:theseusyang@hotmail.com
添加新评论0 条评论