r - 在 sparklyr 中使用 compute() 有什么意义?
问题描述
在sparklyr
我遵循的教程中,它说我可以compute()
用来将前面dplyr
语句的结果存储到一个新的 spark 数据框中。
“代码 1”中的代码创建了一个名为“NewSparkDataframe”的新火花数据框,并spark_tbl
创建了一个我分配给“NewTbl”的数据框。我可以使用 . 查看 spark 数据框src_tbls()
。这一切都在预料之中。
如果我改为运行“代码 2”而不使用compute()
它,仍然会创建一个spark_tbl
我再次分配给“NewTbl”的。这次虽然我无法使用src_tbls()
.
我想知道spark_tbl
如果 spark 中显然没有“NewSparkDataframe”,“NewTbl”如何能够运行代码 2?
compute()
如果我仍然可以访问spark_tbl
使用“NewTbl”新创建的相同内容,那么使用的意义何在?
代码1:
NewTbl <- mySparkTbl %>%
some dplyr statements %>%
compute("NewSparkDataframe")
src_tbls(spark_conn)
"NewSparkDataframe"
代码2:
NewTbl <- mySparkTbl %>%
some dplyr statements
src_tbls(spark_conn)
解决方案
推荐阅读
- sql-server - 没有类型定义的表值参数
- java - 摆脱“浮点上下文中的整数除法”警告
- java - 旧代码中的 TDD - 打破“构造函数”依赖项
- arrays - BigQuery:在 Array 中使用 Array 展平表
- c# - 使用 EF Core 动态使用 Linq 忽略重音字符
- python - JSON Handling: [Errno 36] File name too long
- lua - 使用 Lua 实现 Web 浏览器自动化
- php - PHP抓取外部网站的特定标签内容并返回href
- yocto - yocto OS需要使用git
- java - 如何从适配器类(不扩展 AppCompatActivity)调用 getSupportFragmentManager()?