google-cloud-platform - 从 bigquery 中获取数据而不重复
问题描述
使用 Google 的 bigquery Python API,是否可以分批从大查询表 (GCP) 中获取数据而无需重复(即,分小批下载大型数据集,而不是一次全部下载)?
例如,如果我有一个包含 1000 万行的表,我是否可以运行 10 次数据获取迭代,其中每次迭代有 100 万个唯一的新行被下载而不重复(即,同一行在所有 10 次迭代中只获取一次) ?
解决方案
我用熊猫做那些事
import pandas as pd
import numpy as np
from google.oauth2 import service_account
import pandas_gbq
credentials = service_account.Credentials.from_service_account_file('yourkey.json')
10MrowsQuery = f'select * from 10MrowTable")'
dataframe = pd.read_gbq(10MrowsQuery, project_id="yourgcpprojectname", dialect='standard', credentials=credentials)
推荐阅读
- api - 如何将 Blazor 应用程序连接到 api 服务器
- python - 如何使用相关列值自定义 pandas barplot 文本注释?
- angular - 修复github项目下载的任何想法
- c# - 关于 C# 抓取项目的抓取问题
- c# - 使用 Automapper 将视图模型映射到模型导致实体框架删除孙行
- r - R中的双重采样方法
- javascript - 无法使用 React Reducer 更新特定状态
- firebase - Flutter/Firestore:“QuerySnapshot”类没有实例获取器“document”
- csv - 是否可以在 TSQL 中有 2 个嵌套的枢轴函数
- html - 有些图片没有出现在我的 github 页面组合中