apache-spark - 如何强制 Spark Dataframe 在所有工作节点之间拆分?
问题描述
我想创建一个只有 10 行的小型数据框。我想强制将此数据帧分发到两个工作节点。我的集群只有两个工作节点。我怎么做?
目前,每当我创建如此小的数据框时,它只会保存在一个工作节点中。
我知道,Spark 是为大数据构建的,这个问题没有多大意义。但是,从概念上讲,我只是想知道强制 Spark 数据帧在所有工作节点之间拆分是否可行或可能(假设只有 10-50 行的非常小的数据帧)。
或者,这是完全不可能的,我们必须依赖 Spark master 来分发这个数据帧?
解决方案
推荐阅读
- python - Python3 Playsound Tkinter 代码未按预期顺序运行
- android - Android:Livedata Observer 永远不会被调用,recylerview 列表永远不会提交,navgraphviewmodel
- python - 在 Python 中模拟多个给定多个概率的最快方法?
- java - AAPT:错误:找不到属性 startIconDrawable
- php - 在 Woocommerce 中的特定国家/地区的购物车和结帐总额后显示文本
- html - Facebook Bug 解码器 - 图像元数据正在获取“不是有效的 URL”。错误
- excel - Excel VBA剪切和粘贴反复风靡一时
- c# - 有没有办法改变字体或制作很酷的艺术作品(如 ASCII)?
- linux - 为什么我只能从一侧执行 TCP 握手?
- c# - 返回任务
从异步方法无需等待