scala - 使用 spark 从 hdfs 读取文本文件的问题
问题描述
我最近开始学习 hadoop 和 spark,但在从 hdfs 读取文本文件时遇到问题。我已经在这里完成了几篇文章,但仍然没有得到它。我会很高兴有一个协助。
hadoop fs -ls /user/training
-rw-r--r-- 1 training supergroup 264875 2019-07-10 16:53 /user/training/book.txt
scala> val readme= sc.textFile("hdfs://localhost:8020/user/training/book.txt")
scala> val readme= sc.textFile("/user/training/book.txt")
scala> val readme= sc.textFile("/book.txt")
scala> readme.count
我尝试了上述所有代码,但一直出错
解决方案
推荐阅读
- csv - 如何在 swagger/yaml 文档上正确记录文本/csv 响应?
- django - 如何使用脚本文件填充 django 数据库?
- javascript - Google-Maps-React:将道具传递给 App.js 的问题
- javascript - Javascript:带有方法的对象与带有开关的函数
- android - 一次添加一个元素时如何在recyclerview中平铺单个元素?
- python - 模拟 Peewe 类不会返回值
- julia - 如何使`eval`使用特定路径来解决Julia中的`include`?
- multithreading - goroutines(以及运行它们的操作系统线程)在被 IO 绑定操作阻塞时如何表现?
- java - Java:Android App 在虚拟设备上运行,但在真实设备上崩溃
- python - Python:在 Excel 中将列表写入一行