apache-spark-sql - 如何使用 Spark SQL 将数据写入 BigQuery?
问题描述
我们正在使用 Google Dataproc 集群和spark-sql
外壳。并能够创建如下表:
CREATE TABLE table_bq
USING bigquery
OPTIONS (
project 'project',
dataset 'dataset',
table 'bq_table'
);
这会连接到 BigQuery 以用于所有查询目的,但是,当我们尝试这样做时
INSERT OVERWRITE TABLE table_bq SELECT ....;
它失败并出现错误:
) 不允许插入。;;
关于我们如何从 spark-sql 将数据加载到 BigQuery 的任何指示?注意:我已经看到了使用带有数据框的 spark 将数据写入 BigQuery 的示例,但是我的问题与 spark-sql 有关系吗?
解决方案
推荐阅读
- css - Angular 11 将边框应用于组件
- forms - 表单中的复选框仅返回 1(最后选择)值
- sql - 简单 gSheet 查询根据未在查询中评估的列中的数据为 Count 函数返回错误值
- python - PyTorch 使用乘法减少列
- r - 使用 dplyr 使用两列之间的公共值进行过滤
- r - 是否有用于将原始输入转换为 .xlsx 文件的 R 函数?
- c++ - 使用 AVX2 将可变长度整数的 varint64 流解压缩为 __m256i 的 qword 元素
- rust - 为什么 Rust 中的 trait 要求任何方法都没有任何类型参数才能保证对象安全?
- python - 使用json在python中合并两个api的数据
- google-cloud-platform - Google PubSub 减少通过推送传递消息的尝试