java - Spark结构化流:为什么java代码使用DataSet而scala使用DataFrame类型?
问题描述
嗨,我正在阅读 spark 结构化流的官方文档:https ://spark.apache.org/docs/latest/structured-streaming-programming-guide.html#quick-example
它的 java 示例代码使用 DataFrame 并引入 DataFrame 作为结构化流的基本类型,但同时兄弟 java 代码使用 Dataset 作为数据类型。我只是想知道,只要在jvm上运行spark/scala,scala和java不应该使用相同的数据类型来表示吗?
或者 DataFrame 实际上是一种数据集,不知何故?
希望得到您对这个问题的解释,谢谢。
解决方案
推荐阅读
- python-3.x - Contructing new dataframe and keeping old one?
- java - Creating a 2D Array and filling the array with random numbers
- python - What's the best way to modify a variable using a function, but inside of another function?
- ios - ios/index/DataStore 的使用
- laravel - laravel 保持表单数据在按下按钮后不刷新
- apache-spark - 如果 RDD 变大,Spark 将如何反应?
- c++ - Simple Noob C++ Input/Output Question: Code Error
- r - Multiply column by every other column
- android - longClick 上的振动/声音反馈
- r - 无法在 R 中安装 devtools