r - 使用 R 从存储桶上传数据时设置最大错误
问题描述
我使用 bigrquery 将数据从 google 存储桶上传到 bigquery,我喜欢设置允许的最大错误数(默认为 0)
对于那个我使用 bq_perform_load
bq_job<-
bq_perform_load(bq_table(destination_project,destination_dataset,destination_table_temp),
file_name,
source_format ="CSV",
nskip="1",
create_disposition = "CREATE_IF_NEEDED",
write_disposition = "WRITE_TRUNCATE",
fields = bq_fields,
billing = destination_project)
作为文档的一部分,看起来可以添加其他参数
... 传递给底层 API 调用的附加参数。snake_case 名称会自动转换为 camelCase。
但我不确定如何使用它
我试过类似的东西
bq_perform_load(bq_table(destination_project,destination_dataset,destination_table_temp),
file_name,
source_format ="CSV",
nskip="1",
create_disposition = "CREATE_IF_NEEDED",
write_disposition = "WRITE_TRUNCATE",
fields = bq_fields,
maxBadRecords = "500",
billing = destination_project)
但它没有用
解决方案
推荐阅读
- python - Pandas 数据框中列的 KeyError
- kubernetes - 如何计算每个节点上特定 pod CPU 使用率的百分比?
- python - 如何在 scipy 中实现 ILU 预处理器?
- google-sheets - 谷歌表格功能分组和连接行
- python - 如何写函数的导数
- c - 如何修复 swapBack 函数以获得我想要的结果?
- python - 将多个嵌套的 JSON 文件读入 Pandas DataFrame
- c++ - 指向类内部成员函数的C++函数指针
- javascript - 将多个对象值显示为表单 Reactjs 中的输入值
- jquery - Knockout JS - 您不能多次将绑定应用于同一个元素 - MVC