r - 在使用 SparkR 编写镶木地板文件时设置架构
问题描述
当我将 Spark DataFrame 作为 parquet 文件写入 azure 数据湖并将其读回 Databricks 时,我并不总是获得具有正确架构的变量。使用 pyspark、java 等似乎有很多问题,但我发现很难将其转换为 SparkR 代码。
如何在使用 SparkR 编写镶木地板文件时设置架构?
library(SparkR); library(magrittr)
mtcars %>%
as.DataFrame() %>%
SparkR::coalesce(1L) %>%
write.df("...azure data lake store path", source = "parquet", mode = "overwrite", header = "true")
解决方案
推荐阅读
- python - 在python中将字符串图像转换为真实图像
- fonts - 在 ltk 中设置字体
- r - 字符串拆分、合并和堆叠多列
- visual-studio - Msbuild 将二进制文件输出到另一个平台
- python-3.x - 在python中创建气泡图
- python-3.x - 如何在kivy中从.kv文件获取滑块值到python文件
- c# - 在 C# 中,MongoDB 映射 DateTime 出错了
- java - Android : setBackground 方法改变 View 的高度
- python - 在python中按连接顺序对字典的值进行排序
- automation - Ansible 等待重启