在数据量跟业务不是复杂的时候,引入hadoop的生态框架,是一件比较麻烦的事情,那到底是什么情况下采用hadoop的生态框架,比如hdfs,mapreduce等?
hdfs:对于海量的数据比如几十G以上的数据进行存储
mapreduce:比如你想对你的数据,每一行进行数据规整,比如时间格式,字符串提取等,前提是你的数据文件中的数据是由特殊符号间隔的
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30