scala - 如何在 spark scala 中获得 groupby 的输出如下
问题描述
运行 groupby 后,我得到的结果为
+--------------------+-----+
| City|count|
+--------------------+-----+
| Tyler| 2|
| Fairbanks| 1|
| Springfield| 12|
| Charleston| 7|
| Corona| 2|
我想要与下面相同的结果
Tyler : 2
Fairbanks : 1
Springfield : 12
我必须在 scala spark.. 不是 pysaprk
解决方案
这个问题有点不清楚。请添加更多数据,例如您如何打印第一个输出(输入代码会有所帮助)。休息一下,根据输出,我认为您只是从 RDD 中获取一些值并使用默认 println 在控制台上打印。如果是这种情况,请尝试根据您的输出要求映射数据,然后在其上使用 .mkstring("\n")。所以伪代码看起来像
collectedResult.map(x=>s"${x._1} : ${x._2}").mkString("\n")
注意:这只是一个示例,可能不会像在编辑器中那样运行。此外,如果结果的大小太大,则根本不推荐这种方法。
推荐阅读
- linux-kernel - 调试内核恐慌
- r - 使用分组连接列中的字符串
- three.js - THREEJS:如何计算 THREE.ray 上到另一个 THREE.ray 的最近点
- reactjs - React - 顶级组件变得臃肿?
- php - 如何在 Popover 中获取两个函数
- python - python -spyder中的D素数方程
- javascript - 如何创建顺序连续变量以使用循环推入数组
- php - Laravel 路由政策:函数 1 的参数太少,预期通过 2
- android - NotifyItemChanged 在 OnResume() 中被调用但不起作用
- c - 如何就地修改项目(不复制/传递缓冲区)