r - load hundreds of dataset from Github in R
问题描述
From Johns Hopkins University COVID dataset, the data are in separate pages per date. screenshot
I hope to read all the datasets in R without having to code read.table(url("")) hundred times. After reading them in R, I'm planning on merging them by adding a "date" column. Is there a way to go about this?
解决方案
可能有更简单的方法——我很确定 JHU 数据集有聚合。其他人也可以解决它,和/或提供其他聚合。
例如,我每天使用纽约时报的这个 git repo已经有14 个月左右的时间了。您可以克隆它,每天更新并享受精选的 csv 文件。
推荐阅读
- jquery - 未捕获的 ReferenceError:未定义 new_balance
- python - 是否可以更改 folium 中的弹出背景颜色?
- java - 在 BottomNavigationView 中禁用重新选择
- c# - 使我的 MVC Async 控制器方法异步,以便它们可以同时处理
- c - 如何解决:重新编译时出现 -fPIE 错误?
- flutter - Flutter:无法在 Chrome 中以调试模式运行应用程序
- node.js - 如何在 ajax 数据库表列中添加 html 额外代码
- java - 使用 Apache POI 将 zip 文件嵌入或附加到 Excel 中的 XSSF 工作表中
- php - 未定义路线 - Blade Laravel
- imagemagick - AWS Centos7 上的 Imagemagick 7 找不到库