apache-spark - 使用 delta 格式使用 Apache Spark 创建表被卡住了
问题描述
我想使用增量位置创建一个表,但我的过程卡住了。
spark.sql("CREATE TABLE bronze_table USING DELTA LOCATION 'dbfs:/mnt/poc-databricks-folder/bronze/delta'")
...运行命令
该过程没有完成,我在 24 小时前运行了它,它仍然处于“运行命令”中。我有一个正在运行的流式作业,它将增量格式存储在没有问题的路径中。
我的问题是使用以前的路径创建表的过程卡住了,我想知道原因。我尝试重新启动集群,从文件夹中删除所有内容,删除数据库,删除表,但我遇到了同样的问题。
解决方案
推荐阅读
- jquery - jQuery highlightTextarea 选择部分匹配而不是完全匹配
- xquery - 季度日期计算 [XQuery]
- rds - 远程桌面服务行为问题,RemoteApp 一直冻结
- python - 每 64 个字符插入换行符
- python - 如何在 Ubuntu jupyter-notebook c python3 中从命令行运行
- sqlite-net - SQLite-Net 扩展:在 Master/Detail 场景中删除详细记录
- mysql - Mysql在一个语句中删除多个带有左连接的表导致FK冲突
- arrays - 如何引用字符向量数组
- docker - 如何在声明性 Jenkins 管道中将秘密文件挂载到 docker 映像中?
- redux-form - 无法动态呈现 redux 表单选择输入选项