全球Hadoop服务器因配置不安全导致大量数据泄漏,针对这种情况该如何进行防范和补救?

最近,有报导指全球 Hadoop 服务器因配置不安全导致大量数据泄漏,涉及使用 Hadoop 分布式文件系统(HDFS)的近 4500 台服务器,数据量高达 5120 TB (5.12 PB),经分析,这批数据泄漏的近 4500 台 HDFS 服务器中以美国和中国为主。

互联网上暴露的 Hadoop 服务器如果没有配置认证均可能受影响,攻击者针对 HDFS 的攻击删除了大多数目录,并会添加一个名为「NODATA 4U_SECUREYOURSHIT」的新目录和「PLEASE_README」的目录,攻击者可能备份业务数据后在服务器上删除这部分数据,然后直接发送勒索邮件并索要勒索赎金。

该问题产生是由于管理员在配置失误所致,由于直接在云端上开放了 Hadoop 机器 HDFS 的 50070 web 端口及部分预设服务端口,骇客可以通过命令行操作多个目录下的数据,如进行删除操作,安全风险高。

针对这种情况该如何进行防范和补救?欢迎大家分享分享相关经验。

参与4

1同行回答

美国队长美国队长研发工程师Alibaba
首先最基本的查看hadoop自带默认的一些监听端口,比如50070,10020等一般配置在hdfs-site.xml,mapred-site.xml,yarn-site.xml这几个文件中,修改成另外的端口,另外对hadoop集群的访问要设置ip过滤等措施其次是hadoop的job权限分为三层,一个是Servicelevel,就是控制所有用户对job的...显示全部

首先最基本的查看hadoop自带默认的一些监听端口,比如50070,10020等一般配置在hdfs-site.xml,mapred-site.xml,yarn-site.xml这几个文件中,修改成另外的端口,另外对hadoop集群的访问要设置ip过滤等措施

其次是hadoop的job权限分为三层,一个是Servicelevel,就是控制所有用户对job的操作权限,一个是细化到具体的queue上的job针对不同用户组的权限, 最后一个是DfsPermission,对hdfs的操作权限

收起
互联网服务 · 2017-06-27
浏览2505

提问者

zhenzongjian
软件开发工程师na
擅长领域: 服务器AIXUnix

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2017-06-27
  • 关注会员:2 人
  • 问题浏览:3470
  • 最近回答:2017-06-27
  • X社区推广