python - 使用 aws S3 存储桶进行流式传输的 Databricks
问题描述
以下是与使用 aws S3 存储桶的 Databricks 流式传输相关的一些查询。
从 S3 存储桶流式读取和写入文件(.csv)时是否可以获得往返执行时间?如果可能的话,请详细解释。
如何通过传递参数调用函数在流中使用现有的python笔记本?
使用readStream流式读取文件(.csv)时如何获取文件(.csv)路径?
解决方案
- 查看流指标中的批处理持续时间。
- 将函数放在单独的笔记本中并在流开始之前在该笔记本上调用 %run ,然后您就可以使用它们了。
- 使用函数 input_file_name 检索文件名。
推荐阅读
- reactjs - Flyto 错误:只能在函数组件的主体内部调用 Hooks
- json - 使用文件格式解析 Snowflake 中的特定 JSON 文件时出错
- python - 沿着不同的python脚本在主要函数之间传递变量
- excel - 将单元格的内容复制/粘贴到下一个空行中的目标工作表
- php - 是否可以使用 WordPress 主题预览作为可以使用所有功能的主要网站源?
- c - 此代码是否正确存储了稍后使用的值?
- c++ - 在 C++ 登录程序中的 VS 中出现 Xstring 错误
- r - 具有多列的 Pivot_longer
- function - 在 Google Apps 脚本中循环重置函数
- django - 如何在 django templae 中将数据转换为字符串