首页 > 解决方案 > 在使用 SparkR 编写镶木地板文件时设置架构

问题描述

当我将 Spark DataFrame 作为 parquet 文件写入 azure 数据湖并将其读回 Databricks 时,我并不总是获得具有正确架构的变量。使用 pyspark、java 等似乎有很多问题,但我发现很难将其转换为 SparkR 代码。

如何在使用 SparkR 编写镶木地板文件时设置架构?

library(SparkR); library(magrittr)

mtcars %>% 
as.DataFrame() %>%
SparkR::coalesce(1L) %>% 
write.df("...azure data lake store path", source = "parquet", mode = "overwrite", header = "true")

标签: rapache-sparksparkr

解决方案


推荐阅读