apache-spark - 如何使用 pyspark JDBC 读取 BLOB 数据类型
问题描述
我在 aws 中有 RDS(oracle 表),其中一列是 BLOB 数据类型
Table
Column Datatype
ID varchar2
City varchar2
File BLOB
我想使用 pyspark JDBC 阅读上表,但没有看到任何记录
df.printSchema()
root
|ID: String(nullable = true)
|City: String (nullable = true)
|FILE: binary(nullable = true)
df.show()
+---------+--------------+------------+
|ID | CITY | FILE |
+---------+-------------+-----------+
+---------+--------------+-----------+
目前我正在使用 spark2.4。我想提取二进制数据类型列值,最好的方法是什么?感谢您的回复。
解决方案
推荐阅读
- r - RStudio 项目是否存储任何临时数据?
- google-sheets - 当用户将新行添加到特定工作表时,它会自动将相同的行添加到另一个 Google 工作表
- c++ - 无括号循环内以逗号分隔的代码行
- python-3.x - 如何通过调用 Python 函数在 Robotframework 中运行 .vbs 文件?
- python - 如何使用 API 从谷歌日历中获取事件
- android - FragmentPagerAdapter 在 ViewPager 中不起作用
- python-3.x - 如何单击框以在页面底部显示更多行?
- dialogflow-es - 是否有可能以及如何使用对话流重定向到另一个网页?
- java - 如何在流中结合统计数据和映射器?
- r - 在 R-studio 中安装 arulesViz