apache-spark - 更改 spark shuffle 服务的版本
问题描述
我正在使用带有 databricks delta-0.8.0 的 spark-3.0.2 版本。在阅读已经写入的“delta”文件时,我遇到了错误
java.util.concurrent.ExecutionException: org.apache.spark.SparkException: Job aborted due to stage failure: ShuffleMapStage 4 ($anonfun$call$1 at DatabricksLogging.scala:77) has failed the maximum allowable number of times: 4. Most recent failure reason: org.apache.spark.shuffle.FetchFailedException: java.lang.IllegalArgumentException: Unknown message type: 9
如何解决上述错误?如何知道正在使用哪个版本的 spark shuffle 服务?以及如何将其更改为所需的版本。
解决方案
推荐阅读
- bash - 如何将数组作为参数与其他两个字符串参数一起传递给 shell 脚本函数?
- c - cmake中静态链接.lib文件
- jenkins - Kubernetes 中的主动-被动 Jenkins 设置
- odoo - 使用 angular5-odoo-jsonrpc 的离子和 odoo
- reactjs - React:如何更改地图内切换开关的状态?
- c# - 如何使用 ASP MVC 在另一个文本框上设置总和值
- javascript - 网络蓝牙无法检测到我的手机(Galaxy Note 9)
- magento - Magento 1.9 带有独立购物车的多商店
- oracle-apex - 在交互式报告中,固定为“区域”的“标题”不适用于控制中断
- python - Python 文件删除 PermissionError: [WinError 32]