Hadoop是一个由Apache基金会所开发的分布式系统基础架构,他从0.x版本到现在的3.0版本,经历了各种变化。但是变化中有不变的是他的主要功能就是Hdfs(分布式文件存储) ,Mapreduce(分布式并行计算框架)。
其中,Hdfs主要是用来进行文件的存储,他涉及文件存储不同压缩方式,
文件存储在各个节点是否均衡等;Mapreduce是用来并行计算数据,他通过简单的Mapper,combine,parttion,reducer的过程对批量的数据进行了格式化,排序等处理,他涉及mapper个数,重写combine,partition,reducer的个数等,为了弄清这些参数值的原理。
我们要对Hadoop有个初步的认识,才能为我们进一步研究别的大数据框架做好准备。
先谈一下如何才能进行hadoop入门。下面是我个人总结的进入Hadoop大数据一些要求想法:
最后总结一下Hadoop入门的学习中可能遇到的问题:
1.常用Mapreduce进行数据处理的场景包括哪些?
2.在Hadoop使用中,应该如何诊断和分析故障?
对于新手而言,可以从hadoop区分为hdfs mapreduce两块去对异常进行分类,然后可以百度看一下解决方式。当对hadoop有一定了解之后,可以通过异常的提示,结合自己对框架本身的理解去尝试定位问题。
最后,欢迎大家在学习hadoop的过程中将碰到的问题放到twt网站进行探讨。
如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!
赞1
添加新评论0 条评论