首页 > 解决方案 > 如何使用 pyspark JDBC 读取 BLOB 数据类型

问题描述

我在 aws 中有 RDS(oracle 表),其中一列是 BLOB 数据类型

Table
Column Datatype
ID     varchar2
City   varchar2
File   BLOB

我想使用 pyspark JDBC 阅读上表,但没有看到任何记录

df.printSchema()
root
|ID: String(nullable = true)
|City: String (nullable = true) 
|FILE: binary(nullable = true) 

df.show()
+---------+--------------+------------+
|ID       | CITY       | FILE       |
+---------+-------------+-----------+
+---------+--------------+-----------+

目前我正在使用 spark2.4。我想提取二进制数据类型列值,最好的方法是什么?感谢您的回复。

标签: apache-sparkpysparkapache-spark-sqlpyspark-dataframes

解决方案


推荐阅读