首页 > 解决方案 > 如何使用 Python 代码启动数据流作业

问题描述

一旦我将一个文件放到云存储中,我想启动数据流作业。我启动一个云功能来触发它。但我不知道如何用 Python 启动 datadlow 作业?有人可以帮忙吗?

const kickOffDataflow = (input, output) => {
var jobName = CONFIG.DATAFLOW_JOB_NAME;
var templatePath = CONFIG.TEMPLETE_FILE_PATH;
var request = {
    projectId: "test",
    requestBody: {
        jobName: jobName,
        parameters: {
            configFile: input,
            outputFile: output,
            mode: "cluster_test"
        },
        environment: {
            zone: "europe-west1-b"
        }
    },
    gcsPath: templatePath
}
console.log("Start to create " + jobName + " dataflow job");
return google.auth.getClient({
    scopes: ['https://www.googleapis.com/auth/cloud-platform']
}).then(auth => {
    request.auth = auth;
    return dataflow.projects.templates.launch(request);
}).catch(error => {
    console.error(error);
    throw error;
});

}

标签: python-3.xgoogle-cloud-platformgoogle-cloud-functionsgoogle-cloud-dataflow

解决方案


查看Dataflow Cloud Composer 示例。它描述了如何将 Cloud Composer 与 Cloud Functions 结合使用,以在新文件到达 GCS 存储桶时触发基于 Python 的 Dataflow 作业。


推荐阅读