python - pyspark中的命名累加器
问题描述
在 scala spark 中,可以创建一个命名的累加器,它将通过以下方式显示在 web ui 中
val accum = sc.accumulator(0, "My Accumulator")
但是 pysparksc.accumulator()
方法没有名称参数。是否可以在 pyspark 中创建一个命名的累加器,它将显示在 web ui 中?
解决方案
在 pyspark 中创建命名累加器是不可能的。这个问题已经提出。您可以跟踪此线程https://issues.apache.org/jira/browse/SPARK-2868。
推荐阅读
- python - 使用 if 语句为 python 传递变量或其他函数
- javascript - 我如何制作计时器?
- javascript - 使用 AJAX 隐藏孩子的 div
- swift - Xcode 11 Swift 5 切换按钮
- r - 混合效应模型的 Cohen d
- c++ - QApplication setFont() 和 QTimer
- mapping - 如何仅根据其 URL 验证来自 Wiremock 部署到远程主机的请求?
- assembly - 使用 int 13h 02h 加载在 qemu 和 bochs 中可以正常工作,但在硬件上不行
- python - 迭代切片数组的计算效果
- html - 无法让背景图片显示在网站上