hadoop - 为什么 HDFS 将文件拆分成块?
问题描述
我试图了解 HDFS 将文件拆分为块所获得的好处。
我本来希望通过并发读取多个块来提高读取性能。但是,我一直在阅读论文,说从 HDFS 读取/写入 HDFS 实际上比本地文件系统上的单个文件要慢。
HDFS 将文件拆分成块可以带来哪些性能优势?
解决方案
我一直在阅读论文,说从 HDFS 读取/写入 HDFS 实际上比本地文件系统上的单个文件要慢。
如果您可以在一台机器上读取文件,那么您不需要 Hadoop。Hadoop 是用于大型数据集的分布式处理框架。
HDFS 将文件拆分为块,因为它旨在处理太大而无法在一台机器上处理的文件。这不是要提高小文件的处理速度,而是要为您提供一种方法来处理您无法在一台机器上处理的文件。
推荐阅读
- scala - 未来和产量语法异步还是同步?
- python - RabbitMQ/Pika 用 evenlet 阻塞消费者
- angular - Angular 材质:在表格中使用 *ngIf
- mysql - mysql中的多次DELETE没有删除记录
- r - 使用 for 循环在 R 中创建系列 xlsx 文件
- javascript - 公司道具未显示在 withHandler 内部更新
- git - git push -f 将不需要的日志留在 bitbucket 中
- android - adjustPan 结合 EditText inputType="textPassword" 覆盖了 EditText 的一部分
- python-3.x - 加速 Keras LSTM
- java - HTML 表单转 PDF