airflow - 气流错误 - 日志文件不是本地的
问题描述
我正在尝试执行 Airflow 脚本并在检查图表视图中的 Task_id 日志时出错:
你好,
运行 Airflow 脚本时,我收到一个日志文件不是本地错误。下面给出的是我从图表视图中得到的错误消息。
我在本地使用 Sqlite DB,我尝试执行的功能是连接到 Amazon Redshift 数据库。
任何人都可以提供帮助。谢谢..
解决方案
url 看起来很奇怪:http://:8793/log...
- 缺少主机名。
在我看来,没有正确配置base_url
or中的web_server_host
参数airflow.cfg
。
如果这一切设置正确,则日志存储的设置可能已关闭。
推荐阅读
- jmeter - Jmter,样本结果的重复列表
- node.js - 为什么我在尝试“npm run serve”时会出错?
- bootstrap-4 - 如何创建一次显示多个卡片的轮播
- rust - 我们如何创建具有专门实现的通用方法?
- ios - SKStoreReviewController requestReview 在 iOS 14 上不起作用
- bash - Docker/K8:OpenSSL SSL_connect:SSL_ERROR_SYSCALL
- python - 如何使用 *args 连接无限参数
- rust - 没有 LineWriter 的标准输出
- html - 如何在 html 块中呈现 markdown 语言?
- kubernetes - Kubernetes 是否支持非分布式应用程序?