tensorflow - 通过 gcloud dataproc 读取张量文件
问题描述
你好我应该如何修改我的代码以正确读取数据集2?
%%writefile read_rdd.py
def read_RDD(argv):
parser = argparse.ArgumentParser() # get a parser object
parser.add_argument('--test_set', metavar='test_set', type =ParallelMapDataset)
args = parser.parse_args(argv) # read the value
args.test_set.take(3)
for i in args.test_set:
print(i)
并执行
test_set = dataset2 #dataset2 cannot be inserted
!gcloud dataproc jobs submit pyspark --cluster $CLUSTER --region $REGION \
./read_rdd.py \
-- --test_set $test_set
aditional information
type(dataset2) = tensorflow.python.data.ops.dataset_ops
我试图将 type =ParallelMapDataset 更改为 type=argparse.FileType('r') 但它也不起作用
目前我无法提交正在安装的工作
/bin/bash:-c:第 0 行:意外令牌附近的语法错误('
/bin/bash: -c: line 0:
gcloud dataproc 作业提交 pyspark --cluster bigdatapart2-cluster --region us-central1 ./read_rdd.py -- --test_set '
解决方案
请注意,您传递的参数gcloud dataproc jobs submit pyspark
被转换为标准命令行。尝试用引号括起参数:
test_set = dataset2 #dataset2 cannot be inserted
!gcloud dataproc jobs submit pyspark --cluster $CLUSTER --region $REGION \
./read_rdd.py \
-- --test_set "$test_set"
推荐阅读
- javascript - 如何使用 nodeJS 和 Puppeteer 解决“目标关闭”错误?
- c++ - C ++中_kbhit的替代函数?
- python - 在 Pandas DataFrames 中使用 count.values 和/或 sort.values 对每个给定类别的值进行排序
- python - 如何在 keras 中使用预训练的 googlenet 和 alexnet
- selenium - 为什么 WebDriverEventListener 不支持 iframe 事件?
- python - 遍历python中的JSON并根据键过滤值以获得所需的结果
- docker - Docker UCP API 修剪
- kotlin - 使用自定义(ConsumerAware)错误处理程序时如何寻求和提交?
- flutter - Flutter 无限滚动 - 滚动监听器触发器
- reactjs - 更新了 npm 依赖,现在它不会编译