首页 > 解决方案 > 在具有非动态 URL 的多级网站上进行 R 网络抓取

问题描述

如果我没有找到关于这个问题的先前主题,我深表歉意。我想抓取这个网站 http://www.fao.org/countryprofiles/en/ 特别是,这个页面包含很多指向国家信息的链接。这些链接的结构是:

http://www.fao.org/countryprofiles/index/en/?iso3=KAZ

http://www.fao.org/countryprofiles/index/en/?iso3=AFG

并且此页面中的任何一个都包含我感兴趣的新闻部分。当然,我可以逐页抓取,但这会浪费时间。

我尝试了以下方法,但这不起作用:

countries <- read_html("http://www.fao.org/countryprofiles/en/") %>%
  html_nodes(".linkcountry") %>%
  html_text()

country_news <- list()
sub <- html_session("http://www.fao.org/countryprofiles/en/")

for(i in countries[1:100]){
  page <- sub %>% 
    follow_link(i)  %>% 
    read_html()
  country_news[[i]] <- page %>%
    html_nodes(".white-box") %>%
    html_text()
}

任何想法?

标签: rweb-scraping

解决方案


您可以从顶级页面获取所有子页面:

stem = 'http://www.fao.org'

top_level = paste0(stem, '/countryprofiles/en/')

all_children = read_html(top_level) %>% 
  # ? and = are required to skip /iso3list/en/
  html_nodes(xpath = '//a[contains(@href, "?iso3=")]/@href') %>% 
  html_text %>% paste0(stem, .)

head(all_children)
# [1] "http://www.fao.org/countryprofiles/index/en/?iso3=AFG"
# [2] "http://www.fao.org/countryprofiles/index/en/?iso3=ALB"
# [3] "http://www.fao.org/countryprofiles/index/en/?iso3=DZA"
# [4] "http://www.fao.org/countryprofiles/index/en/?iso3=AND"
# [5] "http://www.fao.org/countryprofiles/index/en/?iso3=AGO"
# [6] "http://www.fao.org/countryprofiles/index/en/?iso3=ATG"

如果您对 不满意xpath,CSS 版本将是:

html_nodes('a') %>% html_attr('href') %>% 
  grep("?iso3=", ., value = TRUE, fixed = TRUE) %>% paste0(stem, .)

现在您可以遍历这些页面并提取您想要的内容


推荐阅读