google-cloud-dataflow - GCP:数据流 [无法识别的参数]:来自 cloud-shell 的子网和来自控制台的无效值
问题描述
我正在尝试使用子网参数创建数据流,但收到这些错误 user@cloudshell:~ (project-id)$ unrecognized arguments: --subnetwork
来自控制台 “resource.properties.networkInterfaces[0].subnetwork”字段的值无效
gcloud dataflow jobs run mysqldb_to_bigquery_with_subnet --gcs-location \
gs://dataflow-templates/latest/Jdbc_to_BigQuery \
--region='europe-west1' \
--subnetwork='regions/europe-west1/subnetworks/europe-west1' \
--parameters=driverJars=gs://bucket/mysql-connector-java-8.0.17.jar,driverClassName=com.mysql.jdbc.Driver,connectionURL='jdbc:mysql://server:3306/database?user=user_name&password=password',query='select * from table_name',outputTable=project-name:dataset_name.table_name,bigQueryLoadingTemporaryDirectory=gs://bucket_name/dataflow-files/temp-dir
解决方案
Correct command is still in beta version which you want you use as per documentation.
Command link https://cloud.google.com/dataflow/docs/guides/using-command-line-intf
gcloud beta dataflow jobs run
(gcloud.beta.dataflow.jobs.run) argument JOB_NAME --gcs-location
Must be specified.
Usage: gcloud beta dataflow jobs run JOB_NAME --gcs-location=GCS_LOCATION [optional flags]
optional flags may be --help | --max-workers | --network | --num-workers |
--parameters | --region | --service-account-email |
--staging-location | --subnetwork |
--worker-machine-type | --zone
推荐阅读
- python - 配置小部件时出现 Tkinter 类型错误
- scala - gitlab ci:sbt 在每个阶段重新编译
- java - 转储覆盖数据时出错(代码 5013)。Selenium 使用 java Eclipse
- http-status-code-404 - nuxt sitemap.xml 未生成
- javascript - 如何在 HTML 中嵌入汇总包 js 内容
- asp.net-mvc - EF6 虚拟对象不再可用
- python - 在 df.insert 中传递函数
- azure - 如何将内部系统与 azure devops 集成?
- javascript - 如何使用事件对象使用 Javascript 更改 HTML 文本
- python - Python sqlalchemy密码作为asterix产生错误