hadoop - 如何将hadoop的awk结果保存到shell脚本中的变量?
问题描述
我正在尝试使用 awk 将 hadoop 的过滤结果保存到 sh 脚本中的变量中,但我失败了:当我在 shell 命令中运行它时,我得到了这个结果:
hadoop fs -ls hdfs://ngdaas/FlareData/output_8/CustomerSubject/aggr=daily/tbl_dt=20180623 | awk '{print $6,$7}'
2018-07-03 06:18
现在我尝试将此结果(2018-07-03 06:18)保存到我尝试编写的 sh 变量中:
#!/bin/bash
load_date="hadoop fs -ls hdfs://ngdaas/FlareData/output_8/CustomerSubject/aggr=daily/tbl_dt=${today} | awk '{print $6,$7}'"
echo "${load_date}"
但它没有工作它打印相同的命令而不是命令的结果,有什么帮助吗?
解决方案
你应该使用$
来存储一个 shell 变量,虽然我没有测试过它,因为我没有 hadoop。
load_date=$(hadoop fs -ls hdfs://ngdaas/FlareData/output_8/CustomerSubject/aggr=daily/tbl_dt=${today} | awk '{print $6,$7}')
推荐阅读
- asp.net-core - 除非注销,否则登录用户将永远不会再次看到登录页面。Asp.net 核心(2.1 或 2.2 或 3.0)
- android - 如何强制 Firestore Recycler Adapter 加载实时数据而不是从缓存中
- javascript - 为什么 mongoose 查询结果对象在新版本中如此冗长?
- asp.net - 尝试重新创建问题的解决方案,需要一点帮助
- c# - Azure AD 在 .NET Core 3.1 中未进行身份验证
- google-apps-script - 来自 Google 表格的函数 sendEmails():错误消息 = 异常:发送电子邮件失败:没有收件人(第 17 行,文件“SendEmail”)
- java - 用于 J2EE 1.4 的 Apache Lucene
- rust - 如何使用 &str 和 String、本机类型和 PyResult 管理内存
将值从 Rust 传递到 Python 时? - java - 为特定 groupId 生成依赖关系图
- dask - dask 无法识别我的服务模块