r - 将数据复制到 Spark 环境
问题描述
我正在尝试将我的数据复制到 spark 并收到以下错误
as.data.frame.default(x, stringsAsFactors = FALSE, row.names = FALSE, 中的错误:无法将类“structure("SparkDataFrame", package = "SparkR")" 强制转换为 data.frame
我查看了文档,发现没有任何帮助
library(SparkR)
DF <- read.df("/FileStore/tables/export.csv", source = "csv", header="true", inferSchema = "true")
library(sparklyr)
library(dplyr)
sc <- spark_connect(method = "databricks")
#This gives the above error
DF_tbl <- sdf_copy_to(sc = sc, x = DF, overwrite = T)
解决方案
推荐阅读
- javascript - 如何使用 jaredpalmer/presspack 与 Google 地图集成构建主题?
- android - 为什么 target="_blank" 在三星设备上的 Chrome 中不起作用?
- javascript - 完全使用 JavaScript 替换 html 元素(无库)
- angular - Angular 编译警告:“在 '@angular/core' 中找不到导出 'ɵɵdefineInjectable'
- c# - 方法调用中没有异常 UIImage.LoadFromData(null)
- python - 将python中从列到行的输出更改为csv
- tsql - 从字符串中吐出第一部分和最后一部分
- http - 使用 IIS 在服务器和客户端之间建立持续的 HTTPS 连接
- clipboard - QA 测试剪贴板操作
- php - 以模型为参数的资源控制器方法不起作用