azure - 在数据块中使用 Pyspark(Python) 连接不起作用
问题描述
使用 Pyspark 的内部连接不适用于使用分区 csv、常规 csv 和 SQL 表创建的数据帧。
例如:当我尝试对使用分区 csv(存储在 ADLS 中)和普通 csv 创建的数据帧应用内连接时,输出 df 使用空白值创建,但是当我加入在常规 csvs 上创建的数据帧时,它工作正常。
数据块对此有任何限制吗?
解决方案
对不起大家。才知道 DF 模式存在问题。我们纠正了它并且它起作用了。
推荐阅读
- r - 在 Pluto.jl 中更新 R 代码插入的问题
- c# - Linq 从列表中选择具有空字符串的对象
- jenkins - 如何添加更多/自定义数据以存储在 jenkins rest api 中
- python - python的双端队列如何打印所有项目
- docker - Vps Debian/Apache 上的 Docker + Vue.js + Nginx 错误“与远程服务器进行 SSL 握手期间出错”
- c# - 如果您不能从 C# Windows 应用程序(使用 Linq)使用自动生成的链接表,它的目的是什么?
- linux - 在 kde Plasma 5 上的浏览器中优雅地打开 .url windows 文件,而无需终端关闭杀死浏览器
- sql - 在 Oracle SQL 中使用 LIKE 和 IN
- asp.net-core - MS Teams 自适应卡在将其与代码作为附件集成后出现错误
- python - 鼠标悬停时如何更改行颜色?Tkinter 树视图