databricks - databricks 从 s3 存储桶路径参数加载文件
问题描述
我是 databricks 或 spark 的新手,我从 databricks 学习这个演示。我在 AWS 上有一个 databricks 工作区设置。下面的代码来自官方demo,运行正常。但是这个 csv 文件在哪里?我想检查文件并了解路径参数的工作原理。
DROP TABLE IF EXISTS diamonds;
CREATE TABLE diamonds
USING csv
OPTIONS (path "/databricks-datasets/Rdatasets/data-001/csv/ggplot2/diamonds.csv",
header "true")
解决方案
推荐阅读
- javascript - 在 Rails 控制器中解析 HTML 请求的响应标头
- laravel - 图片未显示在首页
- regex - 如何从 Python 中的字典中删除 unigram
- laravel - laravel 中的求和收集
- python - 在 Raspberry Pi 上使用超声波测距模块控制继电器模块
- oauth-2.0 - 为什么不能在后端使用 jwt id 令牌进行身份验证?
- android - 观察本地对象更改的 LiveData 属性
- python - 如何计算第二大值并在 Pandas Python 中为其添加另一列
- azure - 为什么 Cassandra 迁移到 Cosmos 后数据量会增加?
- javascript - 使用正则表达式提取单词,除非它是给定的单词