scala - 将文件导入databricks笔记本的问题
问题描述
我正在尝试将 .txt 文件从本地计算机导入到 databricks 笔记本(scala)中。我进入数据部分并单击“添加数据”。在顶部面板中选择了“上传文件”选项,我单击浏览以查找文件,然后单击“在笔记本中创建表”。然后我得到文件的路径,但是当我尝试通过命令“val file_location =”/FileStore/tables/....txt”访问另一个笔记本中的数据时,我得到一个“java.io.FileNotFoundException:/FileStore /tables/....txt(没有这样的文件或目录)”。有人知道我在这里做错了什么以及我应该做什么吗?
亲切的问候
解决方案
格式应该是text
,不是txt
。请参阅文档:
scala> val df = spark.read.format("text").load("README.md")
df: org.apache.spark.sql.DataFrame = [value: string]
scala> df.count
res0: Long = 104
或者您可以使用spark.read.textFile
真正快捷的功能:
scala> spark.read.textFile("README.md").count
res1: Long = 104
推荐阅读
- android - SSL真的安全吗?
- javascript - 在调用函数之前更新 inner.html
- arrays - MongoDB:更新子文档中的特定数组元素
- hadoop - 添加节点/Hadoop
- azure - 如何在 CosmosDB Javascript 存储过程中执行批量字段重命名
- javascript - 如何使用包含字符“-”的键的 webpack 4 JSON 摇树功能?
- python - 获取 GeoJson 多边形的大小(OpenStreetMap 方式)
- go - Golang 缓冲通道在发送之前接收数据
- node.js - 使用nodejs在mongodb中保存替换的字符串数据
- azure - 将 Azure 资源复制到客户端 Azure 帐户