python - 在 pyspark 结构化流中获取重叠的日期范围
问题描述
我看到很多针对小型数据帧的答案,但没有针对 Spark 结构化流的答案。
我尝试在此答案中执行以下操作https://stackoverflow.com/a/68466662/2702630 但是在使用结构化流时它不起作用:
pyspark.sql.utils.AnalysisException: Multiple streaming aggregations are not supported with streaming DataFrames/Datasets;
有人知道如何进行吗?
解决方案
推荐阅读
- javascript - 阻止 Nightwatch/BrowserStack 集成运行的全局变量文件
- javascript - Mongoose 查询不返回任何内容,而 MongoDB 查询返回预期结果
- python - ImportError:没有名为 saml2.auth 的模块
- java - 没有更多错误信息的 Lucee S3 NullPointerException
- java - 如何通过 Maven 在 Intellij 中导入 hadoop.hbase.mapreduce?
- camera - ONVIF 设备管理器如何获取摄像机的密码摘要?
- javascript - apollo-link-state:如何在 typeDefs 少状态链接上指定对象类型参数?
- c++ - 仅在 C++ 中验证字符串输入是否为字母和空格
- python - 在 Python 中使用 for 循环和正则表达式从不同的 DataFrame 重命名相似的列
- php - 这是什么数据,能不能转成JSON