apache-spark - 有没有一种 SQL 方法可以找出 Spark SQL 中表的物理存储大小
问题描述
底层数据源以 Parquet 格式存储,并通过 Hive 公开。
有没有办法使用 SQL 查询来询问给定表的物理存储大小?
解决方案
两个选项:1)检查底层文件的文件大小。例如:在 HDFS 中使用hadoop fs -du -s <path>
2)您可以尝试使用describe formatted <table>;
推荐阅读
- javascript - 每个项目具有多个键的树数据结构
- flutter - 是否有任何方法也可以从后台进程中清除 Flutter 应用程序
- c++ - 如果已部分填充,如何找到已声明的大小为 n 的数组中的元素数?
- css - 如何使用 nextjs 更改图像大小
- sql - SQL Server 视图定期超时
- java - Spark-Scala-Intellij java.lang.IllegalStateException:安装 macOS Big Sur 更新后
- cordova - 为 Android SDK Platform 30 构建 ionic cordova 应用程序
- python - Pyspark - 计算两个数据帧之间的日期
- android - React Native firebase实时数据库不起作用
- c++ - 查找数组范围内最大和最小元素之间的差异