airflow - 气流 HDFS 传感器
问题描述
试图让 HDFSSensor 工作。我已经建立了 hdfs 连接并且文件在那里但是它一直在戳文件并且永远不会完成
寻找文件 hdfs://user/airflow/stamps/test/ds=2018-10-15/_SUCCESS
代码如下
hdfs_sense_open = HdfsSensor(
task_id='hdfs_sense_open',
filepath='hdfs://user/airflow/stamps/test/ds=2018-10-15/_SUCCESS',
hdfs_conn_id='hdfs_leo',
dag=dag)
实际上它可以在路径中没有文件名的情况下工作。我还想在创建hdfs连接时再补充一点,您需要使用hdfs端口号而不是webhdfs端口,即8020(如果是localhost,可能是9000)但不是像50070这样的webhdfs端口
hdfs_sense_open = HdfsSensor(
task_id='hdfs_sense_open',
filepath='/user/airflow/stamps/test/ds=2018-10-15/',
hdfs_conn_id='hdfs_leo',
dag=dag)
非常感谢你们俩试图帮助我
解决方案
filepath
在没有协议的情况下尝试它。喜欢:
hdfs_sense_open = HdfsSensor(
task_id='hdfs_sense_open',
filepath='/user/airflow/stamps/test/ds=2018-10-15/_SUCCESS',
hdfs_conn_id='hdfs_leo',
dag=dag)
推荐阅读
- azure-cosmosdb - Azure cosmos db 在没有分区键的情况下更快
- python - Python sklearn 输入形状错误
- c - 串并联功能
- html - 垂直排列相邻的 DIV,无需强制
- laravel - 自定义 webpack 配置的问题
- pandas - 在 Dataframes 上将 2 列绘制为 2 行,将 1 列绘制为 x 轴
- java - 我收到提到的代码超时错误。需要帮助来优化嵌套循环
- c# - 迁移到 .NET Core 3 后出现“项目 'Web' 必须为配置提供值”错误
- r - 如何不从原始 data.table 中删除列?
- python - 在 pandas 数据框上为产品创建每日价格变化