首页 > 解决方案 > 如何在 PySpark 中导入 AnalysisException

问题描述

我找不到如何AnalysisException在 PySpark 中导入,所以我可以抓住它。例如:

df = spark.createDataFrame([[1, 2], [1, 2]], ['A', 'A'])

try:
  df.select('A')
except AnalysisException as e:
  print(e)

错误信息:

NameError: name 'AnalysisException' is not defined

标签: pythonapache-sparkexceptionpysparktry-catch

解决方案


你可以在这里导入它:

from pyspark.sql.utils import AnalysisException

这显示在错误回溯中,例如

Traceback (most recent call last):
  ...
  File "<string>", line 3, in raise_from
pyspark.sql.utils.AnalysisException: cannot resolve ...

推荐阅读