返回xuyanhui的回答

xuyanhuixuyanhui信息分析/架构师58同城大数据
Hadoop本身是提供了数据安全部分,
Hadoop提供了两种安全机制:Simple和Kerberos。Simple机制(默认情况,Hadoop采用该机制)采用了SAAS协议。 也就是说,用户提交作业时,你说你是XXX(在JobConf的user.name中说明),则在JobTracker端要进行核实,包括两部分核实,一是你到底是不是这个人,即通过检查执行当前代码的人与user.name中的用户是否一致;然后检查ACL(Access Control List)配置文件(由管理员配置),看你是否有提交作业的权限。一旦你通过验证,会获取HDFS或者mapreduce授予的delegation token(访问不同模块由不同的delegation token),之后的任何操作,比如访问文件,均要检查该token是否存在,且使用者跟之前注册使用该token的人是否一致。
互联网服务 · 2015-08-26
浏览1236

回答者

xuyanhui
信息分析/架构师58同城大数据
擅长领域: 服务器大数据大数据平台

xuyanhui 最近回答过的问题

回答状态

  • 发布时间:2015-08-26
  • 关注会员:1 人
  • 回答浏览:1236
  • X社区推广