hadoop - HDFS 会从被重写为内核文件系统中受益吗
问题描述
我从几个节点之间的非常基本的测试中得到的印象是,HDFS 是作为原生 FS 之上的 Java 层编写的,这使得 Hadoop 非常慢。我知道有很多因素在起作用,比如网络,但我很容易观察到 HDFS 中相当大的文件副本与 scp 的 2 个文件系统之间的等效文件副本之间的因素 4。
那么为 Linux 内核编写 HDFS FS 是否值得?
解决方案
推荐阅读
- mingw-w64 - MSYS2-Mingw64 的 Insight 调试器编译器错误
- asp.net - 如何使用 Vue cli 将 Vue 项目添加到现有的 asp.net 4.6 Webforms 项目
- types - 根据模式匹配中的字符串输入返回不同的鉴别联合状态(F#)
- java - Java 字符串是否有效检查
- javascript - 获取从solidity到reactjs应用程序的文件列表
- python - 如何将列表转换为某些键缺少值的字典?
- java - 使用 StringReader 中的 read 方法
- java - 如何存储二维字符串数组(java)
- python - 在 Python PDB 中,如何列出当前文件以外的文件的源代码?
- c++ - 如何在访问指针值时保护应用程序免受读取访问冲突?