sql - 使用 spark 从 oracle 读取数据时出错
问题描述
表中有一个类型NUMBER(2,3)
的字段(在oracle数据库中)。
当我用 spark 读取这个表时,会出现以下异常:
org.apache.spark.sql.AnalysisException:
Decimal scale (3) cannot be greater than precision (2).
我怎么解决这个问题?
我正在读取表格数据的代码如下:
val df = spark.read
.format("jdbc")
.option("driver", "oracle.jdbc.driver.OracleDriver")
.option("url", "jdbc:oracle:thin:@**:1521:**")
.option("user", "**")
.option("password", "**")
.option("dbtable", "table_name")
.load()
解决方案
推荐阅读
- angularjs - 等待订阅角度
- python - python - 如何使用值包含字符串的一部分的条件交换列值
- inheritance - 如何在 Automapper 9.0 中将基类映射到派生类
- java - 我需要生成序列的一部分 1 2 2 3 3 3 4 4 4 4 5 5 5 5 5 ...(该数字重复多次,等于它)
- sql-server - SQL Server - NT AUTORITY/ANONYMOUS LOGIN 错误
- python - “var = var or str.lower”如何变得可调用?
- c# - 在 C# 中,如果我有通用对象,我如何一般指定获取和设置这些对象上的字段?
- java - 如何比较两个对象Java
- cmake - CMake 前向清除库 (OpenSSL)
- laravel - 如何将 ProxyPassReverse 添加到 apache2