hadoop - 调试hadoop文件要求
问题描述
我有一个大约 1gb 大小和大约19955931
行长的文件,当我将它传送到 hadoop 时,它返回空数据。
但是,如果我使用具有相同行数的 head 创建了一个新文件
head -19955931 my.log > my_new_copy.log
Hadoop 返回正确的非空数据。
我对这种行为完全感到困惑,hadoop 是否需要特定的元文件格式?
解决方案
推荐阅读
- sql-server - 使用内连接选择行
- spring - 使用 ANTLR 与 java 和 maven 来解析表达式并将它们转换为 SpEL
- assembly - x86 实模式下的内存寻址
- python - 我正在尝试向 send.keys 发送我计算的值,然后单击保存按钮,但该值没有保存,这是为什么呢?
- firebase - 删除用户时不会触发 Firebase 云功能
- r - 在 R 中匹配和合并具有不同列名的数据集
- grails - 如何使用 List 填充 Grails 域类
- batch-file - .bat 管道对 cmd 提示的多个响应
- javascript - 其他通过html与node.js连接显示mysql的方式
- multithreading - Julia (1.3) 中斐波那契数列的多线程并行性能问题