apache-spark - Azure Databricks 增量删除上的广播超时
问题描述
您好我正在尝试从增量表中删除记录。它不时导致广播超时错误。有人可以帮忙吗
spark.sql(s"""DELETE FROM stg.bl WHERE concat(key,':',revision) in
(Select distinct concat(bl.key,':',bl.revision) from stg.bl bl left semi join
tgt.bl tgt ON bl.key = tgt.key and bl.revision = tgt.revision)""")
org.apache.spark.SparkException: Could not execute broadcast in 300 secs.
You can increase the timeout for broadcasts via spark.sql.broadcastTimeout or
disable broadcast join
by setting spark.sql.autoBroadcastJoinThreshold to -1
解决方案
推荐阅读
- android - Jetpack Compose 透明 NavBackStackEntry
- python - 如何使用python从文件夹中获取最新文件
- flutter - http.dart onError 参数无效:参数无效(onError):错误处理程序必须接受一个对象或一个对象和一个 StackTrace 作为参数
- javascript - 类型错误:_firebase__WEBPACK_IMPORTED_MODULE_2__.db.collection 不是函数
- postgresql - 在同一查询中创建的列上运行 Postgres 字符串函数
- bash - bash 命令检查 jmeter 测试是否成功运行
- java - 制作对象时可以不显示构造函数吗
- python - 为什么这个简单的 2d 运动滞后这么多?
- linux - 我想自己在 llvm 上开发优化器,我该如何构建它?
- firefox - Firefox 将插件编译成二进制