r - databricks/R ---- 错误:达到批次分辨率的最大迭代次数 (100)
问题描述
我正在研究databricks并使用R(我是databricks的新手)。我遇到了这个错误:
org.apache.spark.sql.catalyst.errors.package$TreeNodeException:达到批处理分辨率的最大迭代次数(100),请将“spark.sql.analyzer.maxIterations”设置为更大的值
你能帮忙增加最大迭代吗?如何更改火花 SQL 配置?
我使用了以下命令:
spark.conf.set("spark.sql.optimizer.maxIterations", "500")
但它不起作用。
提前感谢您的帮助。
解决方案
推荐阅读
- c - 如何处理指向用于排序算法的数组的 void 指针?
- sql - 如何编写SQL语句返回每个根的所有孩子,扩展到每个根
- android - 在 AndroidManifest 中外部打开/关闭权限
- python - 在 Python 代码中多次运行 asyncio.run 有什么缺点?
- haskell - 部分应用程序与模式匹配:为什么这些 Haskell 函数的行为不同?
- c# - 尝试传递数据库名称和文本以调用不同文件中的 SQL 命令
- javascript - 可以在触摸屏上同时按住(按下)两个或多个 html 按钮
- javascript - 使用 JQuery 验证动态添加的选择字段(带有 MasterPage 的 ASP.NET WebForms)
- python - 如何在 Python Tkinter 中自动或无限次运行特定功能?
- java - java.util.Date 和 org.joda.time.DateTime 和 java.util.Calendar 哪个更好?