岗位职责:
1 Hadoop大数据平台规划,建设,运维,监控和优化工作;
2 保证Hadoop大数据平台各核心服务运行的稳定、高效;
3 对Hadoop大数据平台运维不断优化,提升数据产品的质量和响应速度;
4 开发各种Hadoop大数据自动化运维与监控工具;
5 研究大数据前沿技术,改进现有系统的服务和运维架构,提升系统可靠性和可运维性;
任职要求:
1 211计算机或相关专业本科以上学历,年龄最好30岁以下;
2 2年以上Hadoop大数据平台实际生产环境经验;
3 熟悉Spark,Kafka,HDFS,Hive,Hbase,MapReduce,Yarn,Flume,Mesos,ZooKeeper中的2个以上组件;
4 理解Spark和MapReduce的原理,能够根据日志分析程序运行出现错误的原因,并对程序运行的参数进行优化,给予业务开发人员建议和支持;
5 熟悉分布式系统、分布式计算系统的工作机制,熟悉Hadoop生态圈相关核心技术的工作机理;
6 具有较好的沟通能力,工作细心负责,富有创新精神,团队精神;
7 有证券行业相关系统开发工作经验者优先。
职责:
1 负责数据平台(数据仓库)持续的建设,包括模型设计、开发测试、ETL、巡检运维,实现与周边应用系统的数据服务支持。
2 规划建设企业级大数据平台,跟踪业内外大数据应用动向。
3 满足业务方的数据需求,提供面向业务的OLAP、报表,数据提取等数据服务。
4 参与数据产品的设计与开发,助力业务发展。
5 推动数据治理,制定数据标准与质量的管理规范制度;
要求:
1 211计算机或相关专业本科以上学历,年龄最好30岁以下;
2 掌握Oracle、SQLSERVER、MYSQL、SYBASE等数据库应用开发;
3 熟悉使用相关etl和bi工具(Datastage,Cognos,帆软bi等);
4 熟悉C++、JAVA、C#等主流编程语言的一种或几种,熟悉使用各类脚本工具,如Python;
5 具有较好的沟通能力,工作细心负责,富有创新精神,团队精神;
6 有证券行业相关系统开发工作经验者优先;
7 有hadoop等大数据平台开发经验优先.
如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!
赞2
添加新评论0 条评论