azure - 将数据帧保存为 csv 文件(在数据块中处理)并将其上传到 azure datalake blob 存储
问题描述
我有一个 csv 文件存储在 azure datalake 存储中,我通过在我的 databricks 集群中安装 datalake 帐户将其导入 databricks,在进行预处理后,我想将 csv 存储回同一个 datalakegen2(blobstorage)帐户中。任何线索和帮助问题表示赞赏。谢谢。
解决方案
只需将其直接保存到 Blob 存储即可。
df.write.
format("com.databricks.spark.csv").
option("header", "true").
save("myfile.csv")
在本地保存文件然后将其推送到 Blob 中没有意义。
推荐阅读
- javascript - 有没有办法获取由 var、let、const 声明的变量的名称?
- c# - 我如何在可注入的辅助类和静态类之间做出决定?
- c# - 在 dotnet 函数中使用 HttpClient 时出错
- oracle - 如何创建与另一个数据库具有相同结构但没有数据的新 oracle 数据库?
- vue.js - 在 HTML 字符串中注入 Vue 组件
- php - 如何使用 php、html 和 ajax 将 webhook 集成到网站中?
- r - CRAN 包提交:“错误:C 堆栈使用量太接近限制”
- python - Python CodeSkulptor 暂停从 For 循环内部绘图
- php - Laravel - 如何翻译验证值?不可能?
- ios - 是否允许通过静默推送通知发送位置数据?