apache-spark - Max/Min 比较 Spark withColumn 中的两个值而不是聚合
问题描述
在列计算中,我有这样的操作
from pyspark.sql import functions as F
df = df.withColumn("col_cal", .../(F.exp(col("col_A")))
F.exp(col("col_A"))
可能太小并在 col_cal 处爆炸计算值。当它接近0时我想限制它。换句话说,如果它太小,用epsilon替换
epsilon = 0.001
df = df.withColumn("col_cal", .../F.max((F.exp(col("col_A"))), epsilon)
但是 F.max 是一个聚合函数,此处不接受。我怎么能像这样在火花数据帧计算中使用正常的最大/最小比较?
解决方案
推荐阅读
- java - Java 客户端通过套接字从 NodeJS 服务器接收消息
- javascript - 如果对象也出现在 JSON 对象中,则从数组中删除对象
- python - 如何在日期时间库python中获取当前时间的时间对象
- flutter - 即使在 Flutter 中使用 setState 后,图像也没有更新
- excel - 使用 VLOOKUP 不仅匹配第一个值
- ios - RxSwift - 启动和更新倒数计时器
- stata - 对具有相同 ID 的每个观察进行约束
- html - 在 HTML 文件中使用 SVG 的正确方法
- mysql - 在 mysql 工作台的列中确定事件之间的平均差异(以天为单位)
- prolog - PROLOG:如何在 prolog 中创建 KMP 算法?