azure-data-factory - 在 ADF 管道中使用 Teradata 作为源调整批量读取大小
问题描述
我想知道是否有人有机会将 Teradata 用作源,如果可以,您是否知道我们是否可以为其设置批量读取大小?我目前正在连接到本地 Teradata,并希望通过调整 Teradata 源端的批处理大小来提高将文件移动到 blob 存储帐户的性能。
谢谢
解决方案
批量写入大小是接收端的属性,如果我知道您正在从源 Terradata 读取数据。我认为您正在寻找一个 Read Batch Size 属性,据我了解,该属性目前不存在。
但我认为,由于 Terradata 在查询中支持 TOP N,因此您可以通过一次读取前 n 条记录来循环所有记录。
我不熟悉 Terradata,但我认为我们可以在 SQL 中实现这一点。
推荐阅读
- java - Http Post 多部分文件消耗 apache camel
- python-3.x - 根据分隔符拆分一列,然后在保留其他列的情况下取消透视结果
- julia - Julia 中带有子图的 hline/vline
- python - Folium Search is loading but dont show anything
- flutter - how to map database keys to Strings & display the text assigned to each key on UI screen?
- python - Python: changing decimals into integer from a text file and adding value in empty column
- selenium - how to take screen shot using selenium WebDriver on Heroku
- reactjs - Electron: How to store data in cache manually
- java - Java:从特定字符'#'中提取字符串并将其分成数组
- mulesoft - 使用 Raml 验证标头