sparklyr - 有没有办法在 Spark 本地模式下保存表并在重新连接后检索?
问题描述
我正在使用带有本地火花(2.3.0)的sparklyr。我可以保存一个spark_write_table
表格
library(sparklyr)
sc <- spark_connect(master = "local", version = "2.3.0")
sdf_copy_to(sc, iris, "iris")
spark_write_table(tbl(sc, "iris"), "iris2")
有两个表“iris”和“iris2”:
dbGetQuery(sc,"SHOW TABLES")
database tableName isTemporary
1 default iris2 FALSE
2 iris TRUE
第一个似乎不是暂时的。
但是,如果我断开会话并使用重新连接
spark_disconnect(sc)
sc <- spark_connect(master = "local", version = "2.3.0")
尽管该表存在于 spark 仓库目录中,但我再也找不到“iris2”表。
这是预期的行为(本地模式下的 Spark 无法存储永久表)还是在使用相同的仓库目录时能够保存和检索表的技巧?
解决方案
推荐阅读
- stripe-payments - 将账户与 Stripe 关联
- mongodb - 将 mongoDB 链接到 elasticbeanstalk 应用程序
- java - 添加到 SQLite 数据库时不允许重复
- arduino - 从 Processing 向 Arduino 发送两个数组
- angular - PrimeNG DataTable 中的单元测试 ng-template 内容
- angular - 如何从模板获取日期时间到组件中
- python-3.x - python3不能将序列乘以'float'类型的非int
- design-patterns - 是否可以在 Netlogo 中创建交换机组?
- mongodb - 使用 Spring Data 和 Reactive MongoDB 推送 Flux
- node.js - Node.js Redis订阅回调未执行