课程
/云计算&大数据
/大数据
/认识Hadoop--基础篇
请问多大的文件才算是HDFS所适合的‘大文件’?一个block 64M是指放一个文件 么?
2016-03-16
源自:认识Hadoop--基础篇 3-5
正在回答
并没有说多大文件比较合适,为了减轻namenode负担,尽量避免过多小文件,也就是文件尽量大;如果文件很大,比如100GB,存储时将其拆分成多个64MB文件块
举报
Hadoop入门视频教程,大数据人才的入门首选
2 回答为什么说小文件比大文件给NameNode的压力更大???
2 回答HDFS写入文件的时候
2 回答hdfs如何删除文件呢?
2 回答文件上传问题
1 回答没有conf文件