博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop不适合哪些场景 哪些场景适合?
阅读量:6250 次
发布时间:2019-06-22

本文共 415 字,大约阅读时间需要 1 分钟。

Hadoop设计的目的主要包括下面几个方面,也就是所谓的适用场景:

1:超大文件

可以是几百M,几百T这个级别的文件。

2:流式数据访问

Hadoop适用于一次写入,多次读取的场景,也就是数据复制进去之后,长时间在这些数据上进行分析。

3:商业硬件

也就是说大街上到处都能买到的那种硬件,这样的硬件故障率较高,所以要有很好的容错机制。

接下来说说不适用的场景:

1: 低延迟数据访问

Hadoop设计的目的是大吞吐量,所以并没有针对低延迟数据访问做一些优化,如果要求低延迟, 可以看看Hbase。

2: 大量的小文件

由于NameNode把文件的MetaData存储在内存中,所以大量的小文件会产生大量的MetaData。这样的话百万级别的文件数目还是可行的,再多的话就有问题了。

3: 多用户写入,任意修改

Hadoop现在还不支持多人写入,任意修改的功能。也就是说每次写入都会添加在文件末尾。

本文作者:佚名

来源:51CTO

转载地址:http://iegia.baihongyu.com/

你可能感兴趣的文章
Linux——解决apache"300 Multiple Choices"
查看>>
Macbook Pro Retina实现OSX10.10 Yosemite 和Win7双系统(Win7多分区)
查看>>
qt 学习之路2
查看>>
IOS学习之 导航栏
查看>>
SNMP网络监控
查看>>
我的友情链接
查看>>
模糊查询like的写法问题
查看>>
我的友情链接
查看>>
yum安装lamp分离教程
查看>>
Java基础学习总结(22)——异常处理
查看>>
深信服NGAF 虚拟网线模式部署案例
查看>>
Java注释模板
查看>>
Java基础学习总结(14)——Java对象的序列化和反序列化
查看>>
从数据库导出到excel
查看>>
网络监测小命令
查看>>
Docker镜像与容器命令
查看>>
Spring学习总结(4)——Spring AOP教程
查看>>
域控制器降级失败后删除数据的方法
查看>>
BZOJ2557[Poi2011]Programming Contest——匈牙利算法+模拟费用流
查看>>
程序员面试100题之12
查看>>